什么是大数据?
大数据本质也是数据,但是又有了新的特征,包括数据来源广、数据格式多样化(结构化数据、非结构化数据、Excel文件、文本文件等)、数据量大(较少也是TB级别的、甚至可能是PB级别)、数据增长速度快等。
针对以上主要的4个特征我们需要考虑以下问题:
数据来源广,该如何采集汇总?对应出现了Sqoop,Cammel,Datax等工具。
数据采集之后,该如何存储?对应出现了GFS,HDFS,TFS等分布式文件存储系统。
由于数据增长速度快,数据存储就必须可以水平扩展。
数据存储之后,该如何通过运算转化成一致的格式,该如何运算出自己想要的结果?
对应的MapReduce这样的分布式运算框架解决了这个问题;但是写MapReduce需要Java代码量很大,所以出现了Hive,Pig等将SQL转化成MapReduce的解析引擎;
普通的MapReduce处理数据只能一批一批地处理,时间延迟太长,为了实现每输入一条数据就能得到结果,于是出现了Storm/JStorm这样的低时延的流式计算框架;
但是如果同时需要批处理和流处理,按照如上就得搭两个集群,Hadoop集群(包括HDFS+MapReduce+Yarn)和Storm集群,不易于管理,所以出现了Spark这样的一站式的计算框架,既可以进行批处理,又可以进行流处理(实质上是微批处理)。
而后Lambda架构,Kappa架构的出现,又提供了一种业务处理的通用架构。
为了提高工作效率,加快运速度,出现了一些辅助工具:
Ozzie,azkaban:定时任务调度的工具。
Hue,Zepplin:图形化任务执行管理,结果查看工具。
Scala语言:编写Spark程序的较佳语言,当然也可以选择用Python。
Python语言:编写一些脚本时会用到。
Allluxio,Kylin等:通过对存储的数据进行预处理,加快运算速度的工具。
大数据来袭,你准备好推塔了吗?
大数据是一种在获取、存储、管理、分析等方面大大超出了传统数据库软件工具能力范围的数据集合。它具有海量的数据规模、的数据流转、多样的数据类型和价值密度低特征。
预测截止到2020年,各个行业大数据相关人才缺口将达到100万,仅在spark大数据开发人才方面,将出现近30万的岗位需求。
大量优质岗位等你来
薪资待遇随工作年限呈阶梯式上涨
优就业与文思海辉合作
共建名企直聘班 学员就业有“位”来
名企直聘班 抢跑“晋”未来
尊重原创文章,转载请注明出处与链接:http://www.peixun360.com/news/154076/违者必究! 以上就是邯郸IT培训学院 小编为您整理在邯郸学习大数据去哪里好的全部内容。