中图网(原中国图书网):网上书店,中文字幕在线一区二区三区,尾货特色书店,中文字幕在线一区,30万种特价书低至2折!

歡迎光臨中圖網 請 | 注冊
> >>
自己動手做大數據系統

包郵 自己動手做大數據系統

作者:張魁等著
出版社:電子工業出版社出版時間:2016-10-01
開本: 32開 頁數: 248
中 圖 價:¥22.1(4.5折) 定價  ¥49.0 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
溫馨提示:5折以下圖書主要為出版社尾貨,大部分為全新(有塑封/無塑封),個別圖書品相8-9成新、切口
有劃線標記、光盤等附件不全詳細品相說明>>
本類五星書更多>
買過本商品的人還買了

自己動手做大數據系統 版權信息

自己動手做大數據系統 本書特色

如果你是一位在校大學生,對大數據感興趣,也知道使用的企業越來越多,市場需求更是日新月異,但苦于自己基礎不夠,心有余而力不足;也看過不少大數據方面的書籍、博客、視頻等,但感覺進步不大;如果你是一位在職人員,但目前主要使用傳統技術,雖然對大數據很有興趣,也深知其對未來的影響,但因時間不夠,雖有一定的基礎,常常也是打兩天魚、曬三天網,進展不是很理想。如果你有上述疑惑或遇到相似問題,本書正好比較適合你。本書從OpenStack云平臺搭建、軟件部署、需求開發實現到結果展示,以縱向角度講解了生產性大數據項目上線的整個流程;以完成一個實際項目需求貫穿各章節,講述了Hadoop生態圈中互聯網爬蟲技術、Sqoop、Hive、HBase組件協同工作流程,并展示了Spark計算框架、R制圖軟件和SparkRHive組件的使用方法。本書的一大特色是提供了實際操作環境,用戶可以在線登錄云平臺來動手操作書中的數據和代碼,登錄網址請參考http://www.feiguyun.com/support。

自己動手做大數據系統 內容簡介

我們為什么需要自己動手做大數據系統?本書從OpenStack云平臺搭建、軟件部署、需求開發實現到結果展示,以縱向角度講解了生產性大數據項目上線的整個流程;以完成一個實際項目需求貫穿各章節,講述了Hadoop生態圈中互聯網爬蟲技術、Sqoop、Hive、HBase組件協同工作流程,并展示了Spark計算框架、R制圖軟件和SparkRHive組件的使用方法。

自己動手做大數據系統 目錄

目 錄

第1章 為什么要自己動手做大數據系統 1
1.1 大數據時代 1
1.2 實戰大數據項目 2
1.3 大數據演練平臺 2
第2章 項目背景及準備 4
2.1 項目背景 4
2.2 項目簡介 4
2.3 項目架構 4
2.4 操作系統 5
2.5 數據存儲 7
2.6 數據處理 8
2.7 開發工具 9目 錄

第1章 為什么要自己動手做大數據系統 1
1.1 大數據時代 1
1.2 實戰大數據項目 2
1.3 大數據演練平臺 2
第2章 項目背景及準備 4
2.1 項目背景 4
2.2 項目簡介 4
2.3 項目架構 4
2.4 操作系統 5
2.5 數據存儲 7
2.6 數據處理 8
2.7 開發工具 9
2.8 調試工具 10
2.9 版本管理 10
第3章 大數據環境搭建和配置 11
3.1 各組件功能說明 11
3.1.1 各種數據源的采集工具 12
3.1.2 企業大數據存儲工具 12
3.1.3 企業大數據系統的數據倉庫工具 12
3.1.4 企業大數據系統的分析計算工具 13
3.1.5 企業大數據系統的數據庫工具 13
3.2 大數據系統各組件安裝部署配置 13
3.2.1 安裝的前期準備工作 13
3.2.2 Hadoop基礎環境安裝及配置 15
3.2.3 Hive安裝及配置 21
3.2.4 Sqoop安裝及配置 24
3.2.5 Spark安裝及配置 30
3.2.6 Zookeeper安裝及配置 31
3.2.7 HBase安裝及配置 33
3.3 自動化安裝及部署說明 35
3.3.1 自動化安裝及部署整體架構設計 35
3.3.2 大數據系統自動化部署邏輯調用關系 36
3.4 本章小結 43
第4章 大數據的獲取 44
4.1 使用爬蟲獲取互聯網數據 45
4.2 Python和Scrapy 框架的安裝 45
4.3 抓取和解析招聘職位信息 47
4.4 職位信息的落地 51
4.5 兩個爬蟲配合工作 53
4.6 讓爬蟲的架構設計更加合理 55
4.7 獲取數據的其他方式 57
4.8 使用Sqoop同步論壇中帖子數據 57
4.9 本章小結 59
第5章 大數據的處理 60
5.1 Hive是什么 60
5.2 為什么使用Hive做數據倉庫建模 60
5.3 飛谷項目中Hive建模步驟 61
5.3.1 邏輯模型的創建 62
5.3.2 物理模型的創建 67
5.3.3 將爬蟲數據導入stg_job表 74
5.4 使用Hive進行數據清洗轉換 77
5.5 數據清洗轉換的必要性 78
5.6 使用HiveQL清洗數據、提取維度信息 79
5.6.1 使用HQL清洗數據 79
5.6.2 提取維度信息 82
5.7 定義Hive UDF封裝處理邏輯 85
5.7.1 Hive UDF的開發、部署和調用 86
5.7.2 Python版本的UDF 89
5.8 使用左外連接構造聚合表rpt_job 92
5.9 讓數據處理自動調度 96
5.9.1 HQL的幾種執行方式 96
5.9.2 Hive Thrift服務 99
5.9.3 使用JDBC連接Hive 100
5.9.4 Python調用HiveServer服務 103
5.9.5 用crontab實現的任務調度 105
5.10 本章小結 107
第6章 大數據的存儲 108
6.1 NoSQL及HBase簡介 108
6.2 HBase中的主要概念 110
6.3 HBase客戶端及JavaAPI 111
6.4 Hive數據導入HBase的兩種方案 114
6.4.1 利用既有的JAR包實現整合 114
6.4.2 手動編寫MapReduce程序 116
6.5 使用Java API查詢HBase中的職位信息 122
6.5.1 為什么是HBase而非Hive 122
6.5.2 多條件組合查詢HBase中的職位信息 123
6.6 如何顯示職位表中的某條具體信息 132
6.7 本章小結 133
第7章 大數據的展示 134
7.1 概述 134
7.2 數據分析的一般步驟 135
7.3 用R來做數據分析展示 135
7.3.1 在Ubuntu上安裝R 135
7.3.2 R的基本使用方式 137
7.4 用Hive充當R的數據來源 139
7.4.1 RHive組件 139
7.4.2 把R圖表整合到Web頁面中 145
7.5 本章小結 151
第8章 大數據的分析挖掘 152
8.1 基于Spark的數據挖掘技術 152
8.2 Spark和Hadoop的關系 153
8.3 在Ubuntu上安裝Spark集群 154
8.3.1 JDK和Hadoop的安裝 154
8.3.2 安裝Scala 154
8.3.3 安裝Spark 155
8.4 Spark的運行方式 157
8.5 使用Spark替代Hadoop Yarn引擎 160
8.5.1 使用spark-sql查看Hive表 160
8.5.2 在beeline客戶端使用Spark引擎 161
8.5.3 在Java代碼中引用Spark的ThriftServer 163
8.6 對招聘公司名稱做全文檢索 168
8.6.1 從HDFS數據源構造JavaRDD 169
8.6.2 使用Spark SQL操作RDD 173
8.6.3 把RDD運行結果展現在前端 174
8.7 如何把Spark用得更好 175
8.8 SparkR組件的使用 177
8.8.1 SparkR的安裝及啟動 177
8.8.2 運行自帶的Sample例子 179
8.8.3 利用SparkR生成職位統計餅圖 179
8.9 本章小結 181
第9章 自己動手搭建支撐大數據系統的云平臺 182
9.1 云平臺架構 182
9.1.1 一期云基礎平臺架構 182
9.1.2 二期云基礎平臺架構 184
9.2 云平臺搭建及部署 185
9.2.1 安裝組件前準備 185
9.2.2 Identity(Keystone)組件 190
9.2.3 Image(Glance)組件 198
9.2.4 Compute(Nova)組件 201
9.2.5 Storage(Cinder)組件 206
9.2.6 Networking(Neutron)組件 210
9.2.7 Ceph分布式存儲系統 221
9.2.8 Dashboard(Horizon)組件 230
9.3 Identity(Keystone)與LDAP的整合 232
9.4 配置Image組件大鏡像部署 235
9.5 配置業務系統無縫遷移 236
9.6 本章小結 237
參考文獻 238信息
展開全部

自己動手做大數據系統 作者簡介

張魁
虛擬化工程師,Openstack架構師,蘇州某高校云平臺架構師,十余年Linux系統運維實踐及虛擬化開發經驗,4年Linux系統補丁開發經驗。先后在美企擔任虛擬化應用運維、服務器集群開發運維工程師或系統開發架構師,高校信息中心云平臺架構師,主要關注Openstack、Docker及分布式存儲等。 張粵磊
DBA、大數據架構師,十余年一線數據處理數據分析實戰經驗。先后在咨詢、金融、互聯網行業擔任數據平臺技術負責人或架構師。主要關注大數據基礎平臺、大數據模型構建和大數據分析。 劉未昕
從事IT研發和項目管理工作十余年以上。使用多種程序設計語言,目前研究方向主要是大數據生態系統,從事金融、數據倉庫等領域研發。五年以上IT行業授課、培訓經驗,并在多所高校擔任外聘講師。 吳茂貴
運籌學與控制論專業研究生學歷。畢業后主要參與數據倉庫、商務智能等方面的項目,期間做過數據處理、數據分析、數據挖掘等工作,行業涉及金融、物流、制造業等。近期主要做復雜數據存儲、清理、轉換等工作,同時在大數據方面也很有興趣并投入大量時間和精力,且將持續為之。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網
在線客服
主站蜘蛛池模板: 五轴加工中心_数控加工中心_铝型材加工中心-罗威斯 | 视频教程导航网_视频教程之家_视频教程大全_最新视频教程分享发布平台 | 台湾Apex减速机_APEX行星减速机_台湾精锐减速机厂家代理【现货】-杭州摩森机电 | 沧州友城管业有限公司-内外涂塑钢管-大口径螺旋钢管-涂塑螺旋管-保温钢管生产厂家 | SMC-ASCO-CKD气缸-FESTO-MAC电磁阀-上海天筹自动化设备官网 | 安徽合肥项目申报咨询公司_安徽合肥高新企业项目申报_安徽省科技项目申报代理 | 锂电混合机-新能源混合机-正极材料混料机-高镍,三元材料混料机-负极,包覆混合机-贝尔专业混合混料搅拌机械系统设备厂家 | 四川职高信息网-初高中、大专、职业技术学校招生信息网 | 重庆中专|职高|技校招生-重庆中专招生网| 天津市能谱科技有限公司-专业的红外光谱仪_红外测油仪_紫外测油仪_红外制样附件_傅里叶红外光谱技术生产服务厂商 | 北京公积金代办/租房发票/租房备案-北京金鼎源公积金提取服务中心 | 无菌实验室规划装修设计-一体化实验室承包-北京洁净净化工程建设施工-北京航天科恩实验室装备工程技术有限公司 | 冰晶石|碱性嫩黄闪蒸干燥机-有机垃圾烘干设备-草酸钙盘式干燥机-常州市宝康干燥 | 北京翻译公司_同传翻译_字幕翻译_合同翻译_英语陪同翻译_影视翻译_翻译盖章-译铭信息 | 工业电炉,台车式电炉_厂家-淄博申华工业电炉有限公司 | lcd条形屏-液晶长条屏-户外广告屏-条形智能显示屏-深圳市条形智能电子有限公司 | 高压无油空压机_无油水润滑空压机_水润滑无油螺杆空压机_无油空压机厂家-科普柯超滤(广东)节能科技有限公司 | 广东之窗网 | 磁力加热搅拌器-多工位|大功率|数显恒温磁力搅拌器-司乐仪器官网 | 澳威全屋定制官网|极简衣柜十大品牌|衣柜加盟代理|全屋定制招商 百度爱采购运营研究社社群-店铺托管-爱采购代运营-良言多米网络公司 | 工业风机_环保空调_冷风机_工厂车间厂房通风降温设备旺成服务平台 | 智能终端_RTU_dcm_北斗星空自动化科技 | 不锈钢丸厂家,铝丸,铸钢丸-淄博智源铸造材料有限公司 | 浙江建筑资质代办_二级房建_市政_电力_安许_劳务资质办理公司 | 彼得逊采泥器-定深式采泥器-电动土壤采样器-土壤样品风干机-常州索奥仪器制造有限公司 | 博医通医疗器械互联网供应链服务平台_博医通 | 数控专用机床,专用机床,自动线,组合机床,动力头,自动化加工生产线,江苏海鑫机床有限公司 | 干粉砂浆设备-干粉砂浆生产线-干混-石膏-保温砂浆设备生产线-腻子粉设备厂家-国恒机械 | 中医治疗皮肤病_潍坊银康医院「山东」重症皮肤病救治平台 | 浙江华锤电器有限公司_地磅称重设备_防作弊地磅_浙江地磅售后维修_无人值守扫码过磅系统_浙江源头地磅厂家_浙江工厂直营地磅 | 杜甫仪器官网|实验室平行反应器|升降水浴锅|台式低温循环泵 | 青岛代理记账_青岛李沧代理记账公司_青岛崂山代理记账一个月多少钱_青岛德辉财税事务所官网 | 智能垃圾箱|垃圾房|垃圾分类亭|垃圾分类箱专业生产厂家定做-宿迁市传宇环保设备有限公司 | 气动|电动调节阀|球阀|蝶阀-自力式调节阀-上海渠工阀门管道工程有限公司 | 儿童乐园|游乐场|淘气堡招商加盟|室内儿童游乐园配套设备|生产厂家|开心哈乐儿童乐园 | 水压力传感器_数字压力传感器|佛山一众传感仪器有限公司|首页 | 外贮压-柜式-悬挂式-七氟丙烷-灭火器-灭火系统-药剂-价格-厂家-IG541-混合气体-贮压-非贮压-超细干粉-自动-灭火装置-气体灭火设备-探火管灭火厂家-东莞汇建消防科技有限公司 | 进口试验机价格-进口生物材料试验机-西安卡夫曼测控技术有限公司 | 数显水浴恒温振荡器-分液漏斗萃取振荡器-常州市凯航仪器有限公司 | 合肥抖音SEO网站优化-网站建设-网络推广营销公司-百度爱采购-安徽企匠科技 | 护腰带生产厂家_磁石_医用_热压护腰_登山护膝_背姿矫正带_保健护具_医疗护具-衡水港盛 |