发布网友 发布时间:2022-04-22 09:49
共12个回答
热心网友 时间:2022-04-10 05:25
首先我们要了解Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。
Java :只要了解一些基础即可,做大数据不需要很深的Java 技术,学java SE 就相当于有学习大数据基础。
Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。还能让你对以后新出的大数据技术学习起来更快。
Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。Hadoop里面包括几个组件HDFS、MapRece和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapRece是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。
Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。它一般用来存放一些相互协作的信息,这些信息比较小一般不会超过1M,都是使用它的软件对它有依赖,对于我们个人来讲只需要把它安装正确,让它正常的run起来就可以了。
Mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。这里主要的是学习SQL的语法,因为hive的语法和这个非常相似。
Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。当然你也可以不用这个,直接把Mysql数据表导出成文件再放到HDFS上也是一样的,当然生产环境中使用要注意Mysql的压力。
Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单,不会再费劲的编写MapRece程序。有的人说Pig那?它和Pig差不多掌握一个就可以了。
Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapRece、Spark脚本,还能检查你的程序是否执行正确,出错了给你发报警并能帮你重试程序,最重要的是还能帮你配置任务的依赖关系。我相信你一定会喜欢上它的,不然你看着那一大堆脚本,和密密麻麻的crond是不是有种想屎的感觉。
Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。所以他常被用于大数据处理完成之后的存储目的地。
Kafka:这是个比较好用的队列工具,队列是干吗的?排队买票你知道不?数据多了同样也需要排队处理,这样与你协作的其它同学不会叫起来,你干吗给我这么多的数据(比如好几百G的文件)我怎么处理得过来,你别怪他因为他不是搞大数据的,你可以跟他讲我把数据放在队列里你使用的时候一个个拿,这样他就不在抱怨了马上灰流流的去优化他的程序去了,因为处理不过来就是他的事情。而不是你给的问题。当然我们也可以利用这个工具来做线上实时数据的入库或入HDFS,这时你可以与一个叫Flume的工具配合使用,它是专门用来提供对数据进行简单处理,并写到各种数据接受方(比如Kafka)的。
Spark:它是用来弥补基于MapRece处理数据速度上的缺点,它的特点是把数据装载到内存中计算而不是去读慢的要死进化还特别慢的硬盘。特别适合做迭代运算,所以算法流们特别稀饭它。它是用scala编写的。Java语言或者Scala都可以操作它,因为它们都是用JVM的。
热心网友 时间:2022-04-10 06:43
大数据开发程序员根据不同具体岗位,需要掌握以下技能,参考下
1、数据采集:ETL工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。
2、数据存取:关系数据库、NOSQL、SQL等。
3、基础架构:云存储、分布式文件存储等。
4、数据处理:自然语言处理(NLP,NaturalLanguageProcessing)是研究人与计算机交互的语言问题的一门学科。处理自然语言的关键是要让计算机""理解""自然语言,所以自然语言处理又叫做自然语言理解(NLU,NaturalLanguage Understanding),也称为计算语言学(Computational Linguistics。一方面它是语言信息处理的一个分支,另一方面它是人工智能(AI, Artificial Intelligence)的核心课题之一。
5、统计分析:假设检验、显著性检验、差异分析、相关分析、T检验、方差分析、卡方分析、偏相关分析、距离分析、回归分析、简单回归分析、多元回归分析、逐步回归、回归预测与残差分析、岭回归、logistic回归分析、曲线估计、因子分析、聚类分析、主成分分析、因子分析、快速聚类法与聚类法、判别分析、对应分析、多元对应分析(最优尺度分析)、bootstrap技术等等。
6、数据挖掘:分类 (Classification)、估计(Estimation)、预测(Prediction)、相关性分组或关联规则(Affinity grouping or association rules)、聚类(Clustering)、描述和可视化、Description and Visualization)、复杂数据类型挖掘(Text, Web ,图形图像,视频,音频等)
7、模型预测:预测模型、机器学习、建模仿真。
8、结果呈现:云计算、标签云、关系图等。
热心网友 时间:2022-04-10 08:18
大数据学习课程图
第1阶段 Java
第2阶段 JavaEE核心
第3阶段 Hadoop生态体系
第4阶段 大数据spark生态体系
热心网友 时间:2022-04-10 10:09
课纲不一样,看是大数据开发还是大数据分析了,我学的大数据分析可视化,学的主要有Python入门、sql、oracle、tableau、帆软、Informatica、Excel等等
我刚出来半年,视频录播可能还不算落后,有视频可***
热心网友 时间:2022-04-10 12:17
大数据培训,目前主要有两种:
1、大数据开发
数据工程师建设和优化系统。学习hadoop、spark、storm、超大集群调优、机器学习、Docker容器引擎、ElasticSearch、并发编程等;
2、数据分析与挖掘
一般工作包括数据清洗,执行分析和数据可视化。学习Python、数据库、网络爬虫、数据分析与处理等。
大数据培训一般是指大数据开发培训。
大数据技术庞大复杂,基础的技术包含数据的采集、数据预处理、分布式存储、数据库、数据仓库、机器学习、并行计算、可视化等各种技术范畴和不同的技术层面。
热心网友 时间:2022-04-10 14:42
其实这个行业中,各个机构的课程设置安排大概是差不多的,人工智能这块因为涉及到庞大的数据量,所以Python是肯定要学的,但有些具体的部分有些什么课程安排,每个培训机构又都是有自己的风格的,还是建议你自己去看看去咨询一下,选大型的牌子,靠谱一点,中公这方面是可以的
热心网友 时间:2022-04-10 17:23
现在大数据基本上都是跟Java连在一起的,Java大数据是目前比较主流的学习方案,所以你需要学习Java的相关知识,后续学习大数据相关知识,比如Hadoop等。
热心网友 时间:2022-04-10 20:21
您好,很高兴为您解答。大数据培训课程如下:
一、课程内容教学
不同的培训机构来说,根据注重的点不同大数据课程内容也有所差异,培训周期也都不大相同。课程内容除开第一阶段学习Java语言基础之外,还要学习HTML、CSS、Java、JavaWeb和数据库、Linux基础、Hadoop生态体系、Spark生态体系等课程内容。
二、基础内容学习
对于初学大数据的同学来说尤其是零基础的,感觉大数据比较复杂比较难,很难记住。但是对于大数据学习者而言,对于学员的逻辑思维能力要求较高。
三、项目实战训练
参加大数据培训学习还有一项内容是必须要注意的,那就是课程内容安排上必须要有大数据开发相关的项目,项目练习是学习的核心,在这个过程中可以让我们更加了解项目制作流程,积累一定的经验,在后边的工作面授中也能应答自如。
热心网友 时间:2022-04-10 23:36
我是来自农村的一名很普通的女孩,17年大学毕业,现在在杭州一家大数据公司做分析师。想跟大家分享一下,我是如何从刚毕业的一张白纸,成长为一名大数据分析师的,希望我的学习成长心路历程,能够给到现在想往大数据分析行业发展的小伙伴一些参考。
我刚毕业的时候和现在许多学弟学妹一样,都非常迷茫,因为我对自己未来并没有一个非常清晰的职业规划,我不知道自己能够做什么?心里还有一些自卑,因为即便我很爱我的大学,但不得不承认,它只是一个很普通的大学,并非985、211。在如今大学生多如牛毛,激烈的就业环境中,我的学历和专业并没有太大竞争力,也有些后悔为什么大学期间没有再认真努力一些,但为时已晚。毕业,意味着新的人生起点,必须要勇敢面对,未来只能靠自己的能力在社会上生存和发展。
于是,就这样,带着对母校和同学们的不舍、对社会的彷徨、对自己内心的恐惧、以及家人给予我的期望迈入社会,开始了我的求职之路。找了半个月的工作,面试20来家,有3家成功的,但是开的工资最高3500一个月,并且2家是销售岗位,1家也不是我本专业的岗位(我的专业是信息与计算科学),我算了一下,就算我接受这些陌生并且不喜欢的岗位,在杭州这样的城市,合租房包水电物业费也得1500左右,公交一个月最少200,生活费最少900,电话费100,3500一个月的工资还要扣除五险一金,每个月还要倒贴。我简直快奔溃了,感觉自己很没用,连在城市生存下去的能力都没有,心里非常的沮丧。
也许命运就是这样,当你面临几乎绝望的时候,往往能审视自己,明白自己真的想要什么,静下心来的时候,我问自己,为什么企业不要我这样的学生?答案其实大家都知道,一是没有工作经验,二是啥都不懂不能为企业创造价值;三是面试的时候紧张、不自信、没有很好的表现自己。按这个逻辑分析下去,再找半个月我也不指望能出现奇迹,可能连我最后一点的自信都会被打击光。我隐约的感觉到需要重新定位自己,需要与其他同学拉开区分度,目前我学的这个专业和知识好像与企业要求的能力相差太大,如此分析后,摆在我面前的路有三条,一是接受3500的工作,熬个一年半载希望能加点工资,让自己在杭州生活下去,以后再谋发展;二是回老家的小城市随便找个工作以后结婚过日子;三是选择一个现在人才缺口大的行业,并且未来有前景的职业从头开始学习,这样至少我还比别人快一步。
去年社会上最热门的字眼就是人工智能、大数据,当时我在网上查了很多信息,看了很多新闻,也在招聘网站上查询大数据岗位的薪资和招聘人数及技术要求等情况,我发现大数据行业分二个方向,一是大数据工程开发类,二是大数据分析类,开发类的编程要求比较高,而分析类的编程技术要求相对低些,在网上找了一些分析课程听了一下,感觉还挺有意思的,也能听懂,相比与开发类,自己更喜欢也更适合分析类,所以就下定决心往数据分析这个方向进行学习。后面我花了10来天的时间去了解数据分析的前景和学习路径,但是网上的信息太杂乱,只能了解一个大概,在网上买了一些课,也买了好几本书,一个星期下来还是毫无头绪,本以为把HADOOP学会就能入门了,结果发现HADOOP搭建会了后面的SPARK太吃力;这时候我感觉还是需要去正式培训一下,自学找不到方向,也比较浪费时间;上天还是比较眷顾我的,我记得是去年的7月初,我在网上查大数据分析培训的时候,发现阿里云和他的内容提供商杭州决明数据科技联合推出一个《阿里云大数据分析师企业实战训练营》,需要选拨才能进入,抱着对阿里云品牌的信任,我进行了考试筛选,当时考的内容是两部分,一是数据库、二是C语言和JAVA;说真的JAVA一窍不通,没想到第二天接到通知说通过了,接下来需要电话面试,我当时就怀疑是不是骗人的,在电话面试的时候我就问了负责的老师,老师说是从250多个报名参加的学生中选10个人参加,主要是为新研发出来的课程体系做实验,我作为计算机相关专业、不懂JAVA只懂数据库的学生样本被选中了,另外面试沟通表达能力必须通过。突然有种被实验的感觉,这不是拿我做小白鼠嘛,我问还有其他样本是怎么样的,负责老师说,有一个是大三未毕业数学统计专业的、有一个机械工程三本学生、有一个软件开发专业的一本学生、有一个工作三年软件开发的学生、有一个工商管理专业的学生……我的个神了,当时就蒙圈了,这玩意万一实验失败我钱不就白花了,还浪费1个多月时间,我给父母说后没一个人支持我的,直到7月9号正式开营的前一天我才想明白一件事,在中国连阿里云这样的企业目前都没有一套完整的科学的课程体系,那其他家肯定也没有,如果是骗人的负责老师也没必要把做实验这事情给我说的这么清楚,最后一天选择了这个训练营,其实心里非常忐忑不安。
集训营10个同学一起学习35天,近2个月时间,经过系统的训练,我们10个同学被杭州7家企业录用,全部是数据分析岗位,有去电信的、有去外贸企业的、有去金融企业的、有去阿里系相关企业的,我和那个大三的学弟一起去了阿里系的企业,我试用期,他实习期,大
佛手:
家都非常的开心,说真的非常感谢阿里云和阿里云的合作伙伴决明数据科技的老师们,当时给我们上课的全部都是决明的老师,老师们都非常的专业负责,公司本来就是做企业商业数据咨询的,所以有很多商业案例跟我们分享,用的实验平台是九道门商业数据分析实验平台。
从小白鼠到入行,到现在也有小三年工作经验的我,给大家一个学数据分析师的学习路径,仅供大家参考;
1、 建议大家先学习MYSQL关系数据库,在分析师岗位上数据库是经常要用到的,也是必须要会的;
2、 建议大家接下来学习数据建模、数据仓库,ETL数据清洗,特别在工作中数据质量管理是比较重的,ETL是经常用的(当然数据清洗工具也有其他的,ETL是大家通用的);
3、 HADOOP分布式其实在分析师这个岗位上用的比较少,了解就可以了,因为现在分布式这块大公司都有现成的工具用,连搭建都不需要,直接用就可以了,非常方便。
4、 分析工具还是需要好好学一下的,建议大家学Python,现在公司里面大部分都是用这个,EXCEL也需要学习学习,一些小的数据集和简单的BI报表还是比较方便的。当然分析工具比较多比如R、SPSS,SAS等都是工具,就看你自己用什么了,会用一个熟练的工具就可以了。另外Python功能非常强大,也不需要研究太深,其实工作做在做项目的时候经常用很快就能学会的,毕竟只是个工具,就像EXCEL要想全部弄清楚所有功能那可不是一天二天的事情,而我们日常经常用的也就是那点东西。
5、 接下来需要学习机器学习,原来叫数据挖掘,现在叫机器学习,也有的叫人工智能,这个需要大家花点时间去学习了,我现在经常用的比如决策树、回归问题、分类问题、聚类问题、降维问题等,还有预测、无监督、最优化也经常用到,这门学科可能是需要我们长时间学习和研究的。
6、 算法方面其实我没有学过,在项目组里面有专门的算法工程师,另外有些通用算法是可以套用的,所以这方面我觉得项目组团队可以配合来做,这方面本人没有经验不做建议。
7、 我现在觉得分析师最重要的是看待问题、处理问题的思路,在这一年工作中我发现团队的大牛们解决问题的思路和我们真不一样,在每次项目组会议的时候我感觉学到的东西最多,那就是解决问题的思路和能力;而且分析师还需要对业务深入了解,因为不同的行业数据结构和业务逻辑都是不一样的,需要花时间去理解和学习;同时我也感觉到作为数据分析师还需要学习商业思维和营销知识。
8、 另外一个就是数据可视化,这个主要是把我们分析出来的数据结构用图像、动画等按时呈现出来。我现在正在做的就是数据大屏,工具很多,BAT公司都有自己的工具,当时老师教我们的时候教的是 Tableau,个人感觉非常好用,这个随便自己喜好了,做大屏可能需要一点美术功底,当然现在模板比较多,也可以套用。
9、 其实在学习的过程中要想学得快,最好是从项目案例入手,当时阿里云和他的内容提供商决明数据就是先让我们训练九道门实验平台上的23个场景案例,数据集全部做好放在服务器里,和我们现在工作的场景很像。老师上午讲知识点,下午和晚上我们就是做实操实验,工具老师基本上都不讲,在做案例项目的时候用到什么临时去查,二次下来工具就上手了。最后一周是加拿大的赵强老师给我们训练了一个大项目,模拟一个企业的数据分析项目,那5天是我最刻苦铭心的,虽然压力很大,分组进行,但是5天时间把我们原来所学的东西全部串起来了,一下子思路就通了,最后每个人还要上台去讲,也培养了自己的沟通能力和演讲能力,整个项目流程下来,受益匪浅。赵老师原来为世界500强企业做过数据咨询项目的,又是加拿大舒立克商学院的MBA教授,项目经验丰富,确实是国内少有的专家大咖,是决明科技的创始人,也是我现在上班这家公司的项目顾问,多亏了赵老师的悉心指导,让我在成为大数据分析师的学习之路上少走了很多弯路,真的蛮感谢赵老师的,也希望大家在学习的路上都能遇到这样的良师益友。
10、 最后一个建议就是大家还需要学习学习PPT制作和演讲,最近我们项目要陆续交付,每次交付都需要向客户进行讲解,每个人做的部分由自己讲,所以PPT制作和演讲都需要训练,亚历山大。
说了这么多,只能代表我这一年来的经历和感受,也不知道对学弟学妹有没有帮助,反正如果你们想往大数据分析师这个职业发展的话,建议大家一定要从项目入手去学习,工具要学但是不要研究太深,会浪费时间,工作后用起来上手非常快,如果自学没有头绪,培训还是很有必要的,但一定要找专业方面的人进行培训,我觉得我还是非常幸运的,遇到了阿里云以及杭州决明科技的老师们,如果学弟学妹们有这样的想法,可以去了解一下,当时我们是第一批培训的,不知道他们现在还在不在做,他们集训就是从项目入手,跟我现在工作内容十分相似,虽然集训过程很辛苦学的也很累,但收获与影响是巨大的。
我当时集训结束的时候就拿到了两个个公司的OFFER,一个是全球排名前十的游戏营销咨询公司,一个是我现在上班的XX云公司;当时选择的时候其实很痛苦,两个公司都非常不错,因为我是在阿里云实验班出来的,我还是选择了阿里系的企业。如愿以偿进入了大数据分析职业,天天做项目,非常开心,我相信我自己能在杭州好好的工作,好好的生活下去,毕业季,也祝小伙伴们能和我一样幸运,找到自己喜欢的工作。最后感谢阿里云和决明数据科技的老师,同时也推荐想学大数据分析的学弟学妹们去九道门商业大数据分析实训中心,因为专业所以认同。
热心网友 时间:2022-04-11 03:07
阶段一、 Java语言基础
Java开发介绍、熟悉Eclipse开发工具、Java语言基础、Java流程控制、Java字符串、Java数组与类和对象、数字处理类与核心技术、I/O与反射、多线程、Swing程序与集合类
阶段二、 HTML、CSS与JavaScript
PC端网站布局、HTML5+CSS3基础、WebApp页面布局、原生JavaScript交互功能开发、Ajax异步交互、jQuery应用
阶段三、 JavaWeb和数据库
数据库、JavaWeb开发核心、JavaWeb开发内幕
阶段四、 Linux&Hadoopt体系
Linux体系、Hadoop离线计算大纲、分布式数据库Hbase、数据仓库Hive、数据迁移工具Sqoop、Flume分布式日志框架
阶段五、 实战(一线公司真实项目)
数据获取、数据处理、数据分析、数据展现、数据应用
阶段六、 Spark生态体系
Python编程语言、Scala编程语言、Spark大数据处理、Spark—Streaming大数据处理、Spark—Mlib机器学习、Spark—GraphX 图计算、实战一:基于Spark的推荐系统(某一线公司真实项目)、实战二:新浪网(www.sina.com.cn)
阶段七、 Storm实时开发
storm技术架构体系、Storm原理与基础、消息队列kafka、Redis工具、zookeeper详解、实战一:日志告警系统项目、实战二:猜你喜欢推荐系统实战
阶段八、 大数据分析 —AI(人工智能)
Data Analyze工作环境准备&数据分析基础、数据可视化、Python机器学习
1、Python机器学习2、图像识别&神经网络、自然语言处理&社交网络处理、实战项目:户外设备识别分析
若之前没有项目经验或JAVA基础,掌握了前三个阶段进入企业,不足以立即上手做项目,企业需再花时间与成本培养;中间三个阶段掌握扎实以后,进入企业就可以跟着做项目了,跟着一大帮人做项目倒也不用太担心自己能不能应付的来。当然了,薪资肯定是根据自己的能力来确定的。
热心网友 时间:2022-04-11 06:55
学习对象:
1、大专以上理工科比较容易入门;
2、在计算机、数学专业最易入门;
3、有一定数学基础的专业;
4、经济学,金融学商科也有优势;
5、具备一定工作经验,想要谋求多元发展;
6、能够承受高压,希望以zui短时间学习大数据开发开发核心内容,并使之成为职场加分项;
学习对象:
1、大专以上理工科比较容易入门;
2、在计算机、数学专业最易入门;
3、有一定数学基础的专业;
4、经济学,金融学商科也有优势;
5、具备一定工作经验,想要谋求多元发展;
6、能够承受高压,希望以zui短时间学习大数据开发开发核心内容,并使之成为职场加分项;大数据分析培训课程大纲
7、想要学习大数据完成弯道提升,打破现处职业瓶颈;
热心网友 时间:2022-04-11 11:00
你是想学大数据开发还是分析呢?参考一下吧