PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 pdf epub mobi txt 电子书 下载 2024

图书介绍


PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019

简体网页||繁体网页
美 托马兹 卓巴斯Tomasz Drab 著,栾云杰 陈瑶 刘旭斌 译



点击这里下载
    


想要找书就要到 静流书站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

发表于2024-11-23

类似图书 点击查看全场最低价

店铺: 互动出版网图书专营店
出版社: 机械工业出版社
ISBN:9787111582380
商品编码:20047031785
丛书名: 大数据技术丛书
出版时间:2017-11-01

PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 epub 下载 mobi 下载 pdf 下载 txt 电子书 下载 2024

相关图书



PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 epub 下载 mobi 下载 pdf 下载 txt 电子书 下载 2024

PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 pdf epub mobi txt 电子书 下载



具体描述

 书[0名0]:  PySpark实战指南:利用Python和Spark构建数据密集型应用并规模化部署|6877019
 图书定价:  49元
 图书作者:  (美)托马兹·卓巴斯(Tomasz Drabas);(美)丹尼·李(Denny Lee)
 出版社:  机械工业出版社
 出版日期:  2017/11/1 0:00:00
 ISBN号:  9787111582380
 开本:  16开
 页数:  0
 版次:  1-1
 作者简介
托马兹·卓巴斯(Tomasz Drabas)工作于微软,是一[0名0]数据科[0学0]家,现居住在西雅图地区。他拥有[0超0]过13年的数据分析和数据科[0学0]经验:在欧洲、澳[0大0]利亚和北美洲三[0大0]洲期间,工作[0领0]域遍及先进技术、航空、电信、金融和咨询。在澳[0大0]利亚期间,托马兹一直致力于运筹[0学0]博士[0学0]位,重点是航空业中的选择建模和收入管理应用。
在微软,托马兹每天都和[0大0]数据打交道,解决机器[0学0]习问题,如异常检测、流失预测和使用Spark的模式识别。
托马兹还撰写了《Practical Data Analysis Cookbook》,该书由Packt Publishing于2016年出版。
我要感谢我的家人Rachel、Skye 和Albert,你们是我生命中的挚爱,我很珍惜与你们度过的每一天!谢谢你们永远站在我身边,鼓励我一步步接近我的职业目标。另外,感谢所有的亲人们。
多年来,还有很多人影响了我,我得再写一本书来感谢他们。你们[0知0]道,我从心底谢谢你们!
不过,如果不是Czesia Wieruszewska,我不[0会0]得到博士[0学0]位。还有Krzys Krzysztoszek,你一直相信我!谢谢!
丹尼·李(Denny Lee)是微软Azure DocumentDB团队的[0首0]席项目经理,该团队致力于为微软发展高效性、重量级的托管文档存储服务。他是一[0名0]喜欢实践的分布式系统和数据科[0学0]工程师,拥有[0超0]过18年的互联网级别基础架构、数据平台和预测分析系统的开发经验,这些经验可用于内部部署和云环境。
他在组建新团队以及促进转型、改革方面拥有丰富的经验。在加入Azure DocumentDB团队之前,丹尼曾担任Databricks的技术传播专员,他从Apache Spark 0.5时就一直在使用Apache Spark。他还是Concur数据科[0学0]工程的高级总监,曾就职于构建了微软Windows和Azure服务(目前称为HDInsight)的Hadoop的孵化团队。丹尼还拥有俄勒冈州健康和科[0学0][0大0][0学0]的生物医[0学0]信息硕士[0学0]位,并在过去15年中为企业医疗保健客户构建和实施了强[0大0]的数据解决方案。
我要感谢我的好妻子Hua-Ping,还有我出色的女儿Isabella和S [a0m0a0] ntha。是你们让我保持清醒,帮我实现了梦寐以求的愿望!
 目录

译者序

前言
关于作者
[0第0]1章 了解Spark 1
1.1 什么是Apache Spark 1
1.2 Spark作业和API 2
1.2.1 执行过程 2
1.2.2 弹性分布式数据集 3
1.2.3 DataFrame 4
1.2.4 Dataset 5
1.2.5 Catalyst[0优0]化器 5
1.2.6 钨丝计划 5
1.3 Spark 2.0的架构 6
1.3.1 统一Dataset和DataFrame 7
1.3.2 SparkSession介绍 8
1.3.3 Tungsten Phase 2 8
1.3.4 结构化流 10
1.3.5 连续应用 10
1.4 小结 11
[0第0]2章 弹性分布式数据集 12
2.1 RDD的内部运行方式 12
2.2 创建RDD 13
2.2.1 Schema 14
2.2.2 从文件读取 14
2.2.3 Lambda表达式 15
2.3 全局作用域和局部作用域 16
2.4 转换 17
2.4.1 .map(...)转换 17
2.4.2 .filter(...)转换 18
2.4.3 .flatMap(...)转换 18
2.4.4 .distinct(...)转换 18
2.4.5 .sample(...)转换 19
2.4.6 .leftOuterJoin(...)转换 19
2.4.7 .repartition(...)转换 20
2.5 操作 20
2.5.1 .take(...)方[0法0] 21
2.5.2 .collect(...)方[0法0] 21
2.5.3 .reduce(...)方[0法0] 21
2.5.4 .count(...)方[0法0] 22
2.5.5 .saveAsTextFile(...)方[0法0] 22
2.5.6 .foreach(...)方[0法0] 23
2.6 小结 23
[0第0]3章 DataFrame 24
3.1 Python到RDD之间的通信 24
3.2 Catalyst[0优0]化器刷新 25
3.3 利用DataFrame加速PySpark 27
3.4 创建DataFrame 28
3.4.1 生成自己的JSON数据 29
3.4.2 创建一个DataFrame 29
3.4.3 创建一个临时表 30
3.5 简单的DataFrame查询 31
3.5.1 DataFrame API查询 32
3.5.2 SQL查询 32
3.6 RDD的交互操作 33
3.6.1 使用反射来推断模式 33
3.6.2 编程指定模式 34
3.7 利用DataFrame API查询 35
3.7.1 行数 35
3.7.2 运行筛选语句 35
3.8 利用SQL查询 36
3.8.1 行数 36
3.8.2 利用where子句运行筛选语句 36
3.9 DataFrame场景——实时飞行性能 38
3.9.1 准备源数据集 38
3.9.2 连接飞行性能和机场 39
3.9.3 可视化飞行性能数据 40
3.10 Spark数据集(Dataset)API 41
3.11 小结 42
[0第0]4章 准备数据建模 43
4.1 检查重复数据、未观测数据和异常数据(离群值) 43
4.1.1 重复数据 43
4.1.2 未观测数据 46
4.1.3 离群值 50
4.2 熟悉你的数据 51
4.2.1 描述性统计 52
4.2.2 相关性 54
4.3 可视化 55
4.3.1 直方图 55
4.3.2 特征之间的交互 58
4.4 小结 60
[0第0]5章 MLlib介绍 61
5.1 包概述 61
5.2 加载和转换数据 62
5.3 了解你的数据 65
5.3.1 描述性统计 66
5.3.2 相关性 67
5.3.3 统计测试 69
5.4 创建终数据集 70
5.4.1 创建LabeledPoint形式的RDD 70
5.4.2 分隔培训和测试数据 71
5.5 预测婴儿生存机[0会0] 71
5.5.1 MLlib中的逻辑回归 71
5.5.2 只选择可预测的特征 72
5.5.3 MLlib中的随机森林 73
5.6 小结 74
[0第0]6章 ML包介绍 75
6.1 包的概述 75
6.1.1 转换器 75
6.1.2 [0评0]估器 78
6.1.3 管道 80
6.2 使用ML预测婴儿生存几率 80
6.2.1 加载数据 80
6.2.2 创建转换器 81
6.2.3 创建一个[0评0]估器 82
6.2.4 创建一个管道 82
6.2.5 拟合模型 83
6.2.6 [0评0]估模型的性能 84
6.2.7 保存模型 84
6.3 [0超0]参调[0优0] 85
6.3.1 网格搜索[0法0] 85
6.3.2 Train-validation 划分 88
6.4 使用PySpark ML的其他功能 89
6.4.1 特征提取 89
6.4.2 分类 93
6.4.3 聚类 95
6.4.4 回归 98
6.5 小结 99
[0第0]7章 GraphFrames 100
7.1 GraphFrames介绍 102
7.2 安装GraphFrames 102
7.2.1 创建库 103
7.3 准备你的航班数据集 105
7.4 构建图形 107
7.5 执行简单查询 108
7.5.1 确定机场和航班的数量 108
7.5.2 确定这个数据集中的长延误时间 108
7.5.3 确定延误和准点/早到航班的数量对比 109
7.5.4 哪一班从西雅图出发的航班有可能出现重[0大0]延误 109
7.5.5 西雅图出发到哪个州的航班有可能出现重[0大0]延误 110
7.6 理解节点的度 110
7.7 确定[0大0]的中转机场 112
7.8 理解Motif 113
7.9 使用PageRank确定机场排[0名0] 114
7.10 确定受欢迎的直飞航班 115
7.11 使用广度[0优0]先搜索 116
7.12 使用D3将航班可视化 118
7.13 小结 119
[0第0]8章 TensorFrames 120
8.1 深度[0学0]习是什么 120
8.1.1 神经网络和深度[0学0]习的必要性 123
8.1.2 特征工程是什么 125
8.1.3 桥接数据和算[0法0] 125
8.2 TensorFlow是什么 127
8.2.1 安装PIP 129
8.2.2 安装TensorFlow 129
8.2.3 使用常量进行矩阵乘[0法0] 130
8.2.4 使用placeholder进行矩阵乘[0法0] 131
8.2.5 讨论 132
8.3 TensorFrames介绍 133
8.4 TensorFrames快速入门 134
8.4.1 配置和设置 134
8.4.2 使用TensorFlow向已有列添加常量 136
8.4.3 Blockwise reducing操作示例 137
8.5 小结 139
[0第0]9章 使用Blaze实现混合持久化 141
9.1 安装Blaze 141
9.2 混合持久化 142
9.3 抽象数据 143
9.3.1 使用NumPy 数组 143
9.3.2 使用pandas的DataFrame 145
9.3.3 使用文件 145
9.3.4 使用数据库 147
9.4 数据操作 149
9.4.1 访问列 150
9.4.2 符号转换 150
9.4.3 列的操作 151
9.4.4 降阶数据 152
9.4.5 连接 154
9.5 小结 156
[0第0]10章 结构化流 157
10.1 什么是Spark Streaming 157
10.2 为什么需要Spark Streaming 159
10.3 Spark Streaming应用程序数据流是什么 160
10.4 使用DStream简化Streaming应用程序 161
10.5 全局聚合快速入门 165
10.6 结构化流介绍 168
10.7 小结 172
[0第0]11章 打包Spark应用程序 173
11.1 spark-submit命令 173
11.2 以编程方式部署应用程序 176
11.2.1 配置你的SparkSession 176
11.2.2 创建SparkSession 177
11.2.3 模块化代码 177
11.2.4 提交作业 180
11.2.5 监控执行 182
11.3 Databricks作业 184
11.4 小结 186

PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 电子书 下载 mobi epub pdf txt

PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 pdf epub mobi txt 电子书 下载
想要找书就要到 静流书站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

用户评价

评分

评分

评分

评分

评分

评分

评分

评分

评分

类似图书 点击查看全场最低价

PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 pdf epub mobi txt 电子书 下载


分享链接


去京东购买 去京东购买
去淘宝购买 去淘宝购买
去当当购买 去当当购买
去拼多多购买 去拼多多购买


PySpark实战指南:利用Python和Spark构建数据密集型应用并…|6877019 bar code 下载
扫码下载










相关图书




本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

友情链接

© 2024 windowsfront.com All Rights Reserved. 静流书站 版权所有