close
登录/ 注册
免费试听
爆发风口,大数据千亿市场等你来战

99%行业覆盖率

大数据时代,数据成为各大企业的 必争之地!大数据应用已经覆盖到 互联网、房地产、广告媒体、通信、 旅游等等行业。

人才缺口高达150万

大数据全面爆发阶段,据数据统计, 未来3—5年,中国大数据人才缺口 将高达150万。

平均年薪30万起

应用广,人才缺,就业好,据知名 招聘网站分析报告指出,大数据初 级工程师平均年薪高达30万,高出 同等水平其他岗位的35%。

市场规模达10000亿

业内预期,我国大数据产业正在从 起步阶段步入黄金期,2020年中国 有望成世界第一数据资源大国。 《大数据产业发展规划(2016—2020)》提出,到2020年,大数据相关产品和服务业务收入突破1万亿元。

一线互联网企业资深大数据架构师亲授
名师强强联手,倾力打造
大数据入门到实战课程体系一网打进
5大商业实战+14个重点模块
5大商业实战
01 企业电商用户Session日志检测系统
项目来源: 一线电商线上系统
项目方向: 电商大数据
项目介绍
在电商项目中,为了收集更多的数据需要通过客户端、PC网页进行相关埋点统计,为了支撑运营团队进一步的进行产品运营策略,需要对公司产品销售数据、网站uv/pv进行数据分析。本项目从电商企业实战出发,进行总结和提升。包含3块子项目,销售数据分析统计,Flink 架构代码实战。
项目实操
1. 项目概述、Hadoop、Zookeeper、Kafka、Flink on Yarn环境搭建要点。
2. Kafka实战、数据接收、代码编写,Flink和Kafka集成实践
3. JS报表控件使用(Echarts)
4. 电商销售数据、uv/pv数据报表展示、Mysql预计算数据存储
5. 项目总结、面试要点
技术要点
1. Hadoop 实战,定时离线任务处理
2.Flink实战讲解
3.Kafka-Flink 实战:Exactly Once语义保证。报表实时数据展示
4.前端技术 ECharts 制作报表
5. Mysql 实践使用
6.Zookeeper 在实际应用中的意义
02 城市交通车辆分析系统
项目来源: 公安大数据项目
方向: 交通大数据
项目介绍
基于大数据的城市交通车辆分析项目,采用Spark+Hive+HDFS+Mysql大数据架构,对城市卡口数据进行分析,主要分析模型包括:套牌车分析、同行车辆分析、首次入城车辆分析等。本项目中涉及到的大数据应用业务场景:离线数据分析、实时数据分析(流处理)、大数据可视化展示
项目实操
1. 大数据项目业务场景介绍,车辆分析项目环境(Spark+Hive+HDFS+Mysql)搭建,分析项目中的数据流向。
2. 套牌车分析模型的业务规则介绍,套牌车分析---编程实战。
3. 同行车辆分析模型的业务规则介绍,同行车辆分析—编程实战。
4. 首次入城车辆分析的业务规则介绍,首次入城车辆分析—编程实战,实现实时监控首次入城车辆的功能。
5. 项目分析结果的可视化展示。
6. 项目总结及项目优化。
技术要点
涉及到的大数据相关技术及组件:SparkSQL、Spark Streaming、Hive、HDFS
03 企业级数据仓库中心实战
项目来源:互联网行业
项目介绍
在企业级市场,不同的人群对于数据有着不同的看法。数据很复杂,本身涉及很多方面,也有很多种用途。本课程旨在围绕核心数据架构展开讨论,涉及相对简单但不失核心的数据架构问题。本课程将尝试展现出中大型企业中最核心的数据用途和视角,并以最通用的技术展现出一些核心的数据架构实战场景。
课程将就主流的数据采集技术展开讨论,并实现一个采集项目案例,搭建出ODS/DW/DM架构,结合采集项目与前面我们学习的Hadoop/Spark/Hive等知识,在数据仓库架构中实现数据指标的清洗与计算。
项目收获
收获1
数据仓库基本概念和分层
收获2
数据采集ODS、源数据层DW和模型层DM设计
收获3
数据采集和协同数据处理(离线数据)
收获4
Hadoop、Hive、Spark业务场景分析
收获5
实战项目:用户与产品相关的数据指标计算
收获6
数据仓库设计思路总结和回顾
04 电商推广系统之用户画像
项目来源:互联网行业
项目方向:电商大数据
项目介绍
某电商平台为实现精准营销及广告推送,需要对所有用户基于近半年的购物数据、商品浏览记录进行画像。通过对用户购物数据进行分析,购物金额大于指定金额的用户,标记为金牌用户,购物进行小于指定金额的用户,推送优惠券,对于有浏览记录,但是未购买的用户,推送折扣广告。
项目收获
收获1
用户画像业务知识
收获2
大数据离线分析场景下,项目开发过程
收获3
项目实战中,各个大数据组件的用法,各个大数据组件之间是如何相互配合的
05
电商大数据推荐系统
项目介绍
推荐系统是利用 电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。
项目收获
收获1
推荐系统概述
收获2
推荐系统分类解析
收获3
推荐系统业务场景分析
收获4
推荐系统数据流架构
收获5
推荐系统模块划分方法
收获6
推荐系统预设场景工程实现—模块间的数据流
收获7
推荐系统预设场景工程实现-系统鲁棒性
收获8
推荐系统预设场景工程实现-工程常见疑难
收获9
工作和面试中常见问题
14个重点模块
01. Linux 操作系统
02. Hadoop生态圈(离线计算)
03. Hive(数据仓库)
04. Sqoop(数据迁移工具)
05. HBase(分布式数据库)
06. Flume(分布式日志收集系统)
07. Scala课程
08. Kafka(流处理平台)
09. Spark Core
10. Spark SQL
11. Spark Streaming(流处理平台)
12. Spark ML(机器学习算法)
13. Flink
14. Java性能优化和分布式中间件探析
01. Linux 操作系统
在企业中无一例外的是使用 Linux 来搭建或部署项目,在平常我们也经常在Linux环境下进行开发。进入大数据领域就要打好 Linux 基础,以便更好地学习Hadoop,Kafka,Spark,Storm,Redis 等众多课程。
  • 1.Linux来源与发展状况
  • 2.Linux常见发行版
  • 3.Linux安装
  • 4.Linux版本信息
  • 5.Linux基础操作命令
  • 6.Linux目录结构介绍
  • 7.Linux系统用户账号管理
  • 8.Linux系统用户组管理
  • 9.Linux系统用户相关文件讲解
  • 10.Linux sudo权限说明
  • 11.Linux常用文件命令
  • 12.Linux常用目录命令
  • 13.Linux文件信息查看
  • 14.Linux文件与目录统计技巧
  • 15.Linux文件属性
  • 16.Linux文件类型
  • 17.Linux文件与目录查找技巧
  • 18.Linux文本文件操作
  • 19.Linux文件权限,压缩与解压缩
  • 20.Linux系统运行与进程运行信息
  • 21.Linux查看磁盘空间
  • 22.Linux环境变量
  • 23.Linux Shell编程
  • 24.Linux进程的查看与终结
  • 25.Linux输入输出与重定向
  • 26.Linux远程登录与重定向
02. Hadoop生态圈(离线计算)
Hadoop是一种分析和处理大数据的软件平台,是Appach的一个用Java语言所实现的开源软件的加框,在大量计算机组成的集群当中实现了对于海量的数据进行的分布式计算。在本章节中不仅将用到前面的 Linux 知识,而且会对 hadoop 的架构有深入的理解,并未你以后架构大数据项目打下坚实基础
Hadoop
  • 1.hadoop 介绍,发展简史,诞生来由
  • 2.hadoop 生态圈体系结构,组件说明
  • 3.hadoop 伪分布式环境搭建及完全分布式环境说明
  • 4.Hadoop安全认证方面的讲解
  • 5.Hadoop集群如何扩容
HDFS
  • 1.HDFS分布式文件系统说明
  • 2.HDFS block概念
  • 3.HDFS namenode ,datanode 详解
  • 4.HDFS HA 详解
  • 5.HDFS命令行接口,读取数据
  • 6.HDFS命令行接口,写⼊数据
  • 7.HDFS命令行接口,删除数据
  • 8.HDFS命令行接口,distcp跨集群分布式拷⻉数据
  • 9.HDFS压缩和分片
  • 10.HDFS文件格式:textfile,sequencefile,rcfile,orcfile,parquet
  • 11.HDFS各类文件格式比较
YARN
  • 1.经典的Mapreduce 1结构弊端
  • 2.Mapreduce 2 中YARN的引入
  • 3.YARN的核心结构说明
  • 4.YARN的⼯作机制
  • 5.YARN的架构剖析
  • 6.YARN 内置调度器:公平调度和容量调度
  • 7.YARN上任务的执行环境
  • 8.YARN上任务的推测执行机制
  • 9.YARN上任务的JVM重用
Mapreduce
  • 1.MapReduce整体流程说明
  • 2.MapReduce目录输入,多目录输入,inputformat子类介绍
  • 3.Mapreduce map 过程
  • 4.Mapreduce combine过程
  • 5.Mapreduce reduce 过程
  • 6.Mapreduce结果输出,outputformat子类介绍
  • 7.MapReduce世界的helloword之wordcount操作演练
  • 8.MapReduce Wordcount 项⽬打包,运⾏
  • 9.MapReduce 内置计数器含义讲解
  • 10.Mapreduce 实例讲解之全排序
  • 11.Mapreduce 实例讲解之部分排序
  • 12.Mapreduce 实例讲解之 join map端连接
  • 13.Mapreduce 实例讲解之 join reduce端连接
  • 14.Mapreduce 实例讲解之矩阵相乘
  • 15.Mapreduce自定义的format
  • 16.Mapreduce MRUnit单元测试使用
Hadoop Streaming
  • 1.hadoop streaming引入的目的
  • 2.Hadoop streaming机制讲解
  • 3.使用Python编写 hadoop streaming
  • 4.使用Shell 编写 hadoop streaming
03. Hive(数据仓库)
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析 。Hive是工作中最常用到的部分,也是面试的重点。
  • 1.Hive 简介
  • 2.Hive Hbase Pig三者的不同点
  • 3.Hive 系统架构
  • 4.Hive 安装搭建与常用参数配置
  • 5.Hive shell命令使用
  • 6.Hive 数据库数据表操作
  • 7.Hive 数据导出
  • 8.Hive 数据加载
  • 9.Hive 外部表与分区表讲解
  • 10.HiveQL 常⽤语句
  • 11.HiveServer2讲解
  • 12.Hive 函数介绍
  • 13.Hive 分析函数与窗口函数
  • 14.Hive ⾃定义UDF / UDAF函数
  • 15.Hive 优化和安全
04. Sqoop(数据迁移工具)
sqoop 主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
  • 1.Sqoop框架介绍
  • 2.Sqoop框架原理分析
  • 3.Sqoop框架安装步骤演示
  • 4.Sqoop1和Sqoop2分析对比
  • 5.Sqoop深入了解数据库导入原理
  • 6.Sqoop导出数据原理分析
  • 7.Sqoop 设置存储格式与使⽤压缩
  • 8.Sqoop导入数据到hdfs分析实战
  • 9.Sqoop 增量导⼊功能代码实现
  • 10.Sqoop RDBMS与Hive的操作演示
05. HBase(分布式数据库)
HBase是一个开源的非关系型分布式数据库(NoSQL),它参考了谷歌的BigTable建模,实现的编程语言为 Java。HBase在列上实现了BigTable论文提到的压缩算法、内存操作和布隆过滤器。HBase的表能够作为MapReduce任务的输入和输出,可以通过Java API来访问数据。也可以通过REST、Avro或者Thrift的API来访问。
虽然最近性能有了显著的提升,HBase 还不能直接取代SQL数据库。如今,它已经应用于多个数据驱动型网站,包括 Facebook的消息平台
  • 1.HBase 综合概述
  • 2.HBase 数据库特点
  • 3.HBase 搭建
  • 4.HBase Shell 操作讲解
  • 5.HBase Java API 讲解
  • 6.HBase 协处理器使用
  • 7.HBase 与Mapreduce集成使用讲解
  • 8.HBase backup master讲解
  • 9.HBase 数据模型讲解
  • 10.HBase 数据库数据存储与读取思想讲解
  • 11.HBase 数据在线备份思路讲解
  • 12.HBase 数据迁移与导入方案讲解
  • 13.Region 寻址⽅式
  • 14.HBase 二级索引构建方案
  • 15.HBase RowKey设计原则
  • 16.HBase 性能调优
06. Flume(分布式日志收集系统)
Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
  • 1.Flume框架原理和应用场景分析
  • 2.Flume框架使用场景分析
  • 3.Flume概述以及原理解析
  • 4.Flume中Event的概念和Socket的关联
  • 5.Flume运行机制分析
  • 6.NetCat Source源码分析
  • 7.Flume agent原理说明和shell配置
07. Scala课程
Scala是一门多范式的编程语言,一种类似java的编程语言 ,设计初衷是实现可伸缩的语言 、并集成面向对象编程和函数式编程的各种特性。
  • 1.scala 环境配置
  • 2.scala 体系结构
  • 3.scala 解释器、变量、常用数据类型等
  • 4.scala 的条件表达式、输入输出、循环等控制结构
  • 5.scala 的函数、默认参数、变长参数等
  • 6.scala 的数组、变长数组、多维数组等
  • 7.scala 的映射、元组等操作
  • 8.scala 的类,包括 bean 属性、辅助构造器、主构造器等
  • 9.scala 的对象、单例对象、伴生对象、扩展类、apply 方法等
  • 10.scala 的包、引入、继承等概念
  • 11.scala 的特质
  • 12.scala 的操作符
  • 13.scala异常处理
08. Kafka(流处理平台)
Kafka 是在大数据流处理场景中经常使用的分布式消息系统,配合 Spark 内存计算框架, 是流处理场景中的黄金组合。本课程以实战的方式学习 Kafka 分布式消息系统,包括 Kafka 的安装配置、Producer API 的使用、Consumer API 的使用以及与第三方框架(Flume、 Spark Streaming)的集成开发。每个知识点的学习,都有编程实战和操作实战,用眼见为 实的方式学习抽象的理论概念。
  • 1.Kafka 入门
  • 2.Kafka 集群搭建理论与实践
  • 3.Kafka Topic 实战
  • 4.Kafka 开发 Producer 理论与实践
  • 5.Kafka 开发 consumer 理论与实践
  • 6.Kafka 发送和接收结构化数据
  • 7.Kafka 发送和接收非结构化数据
  • 8.Kafka 整合 Flume 框架
  • 9.spark 读取 kafka 数据
09. Spark Core
Spark 内存计算框架,是当前最流行的大数据计算框架,Spark 已经成为大数据开发人员以 及数据科学家的必备工具。
本课程主要学习 Spark Core 的内容。包括 Spark 集群安装、Spark 开发环境搭建,Spark Core 编程模型、Spark 程序运行原理、Spark 性能调优等。
  • 1.Spark 的起源及其哲学思想
  • 2.Spark 集群的安装、启动、测试
  • 3.Spark 基本架构及 API 介绍
  • 4.Spark 开发环境搭建并开发运行 wordCount 程序(Scala、 Java)
  • 5.wordCount 程序的集群部署及 Spark UI 简介
  • 6.Spark 计算框架的核心抽象--RDD(理论及入门)
  • 7.Spark RDD创建实战(Scala、 Java)
  • 8.Spark RDD 操作--transformation 算子实战(Scala、 Java)
  • 9.Spark RDD 操作--action 算子实战(Scala、 Java)
  • 10.Spark RDD计算结果保存实战(Scala、 Java)
  • 11.Spark RDD 缓存及持久化实战(Scala、 Java)
  • 12.Spark 分布式共享变量实战--累加器和广播变量(Scala、 Java)
  • 13.Spark 程序集群部署方式实战
  • 14.Spark 程序运行流程分析
  • 15.Spark 程序的监控和调试
  • 16.Spark 内核解读
  • 17.Spark 性能调优(shuffle)
  • 18.Spark Core 数据分析实战
  • 19. Spark内存管理模型
  • 20. Spark性能调优(shuffle)
  • 21. Spark源码阅读入门
10. Spark SQL
本课程将深入浅出学习 Spark 的结构化 API(DataFrame、Dataset 和 SQL)。SparkSQL 是在大数据项目中,Spark 开发工程师经常使用的 Spark 模块,除了深入讲解 SparkSQL 本身的每个知识点、SparkSQL 性能调优,还会涉及到 HDFS、Hive、HBase、MongoDB、 Oracle、MySQL 等第三方数据存储框架。每个知识点都以代码实战的方式讲解,知其然,更知其所以然。
  • 1.Spark SQL 背景介绍
  • 2.SparkSQL、 DataFrame、 Dataset 之间的关系
  • 3.SparkSQL 概述
  • 4.SparkSQL 数据类型
  • 5.SparkSQL join 操作实战
  • 6.SparkSQL 读写数据实战
  • 7.SparkSQL 操作 Hive 中的数据
  • 8.SparkSQL 调优
  • 9.SparkSQL 数据分析案例实战
  • 10. Spark SQL join操作实战及调优
  • 11. SparkSQL UDAF开发实战
  • 12. SparkSQL窗口函数实战
  • 13. SparkSQL数据分析案例1(购物网站数据分析)
  • 14. SparkSQL数据分析案例2(交通车辆—套牌车分析)
11. Spark Streaming(流处理平台)
Spark streaming是Spark核心API的一个扩展,它对实时流式数据的处理具有可扩展性、高吞吐量、可容错性等特点。我们可以从kafka、flume、Twitter、 ZeroMQ、Kinesis等源获取数据,也可以通过由高阶函数map、reduce、join、window等组成的复杂算法计算出数据。最后,处理后的数据可以推送到文件系统、数据库、实时仪表盘中。事实上,你可以将处理后的数据应用到Spark的机器学习算法、 图处理算法中去。
  • 1.Spark Streaming 框架机制
  • 2.Spark Streaming 时间和窗口的概念
  • 3.Spark Streaming DStream和RDD的关系
  • 4.Spark Streaming 性能调优
  • 5. Spark Streaming整合Kafka的两种方式
  • 6. SparkStreaming整合kafka:如何实现exactly once消费语义
  • 7. Spark Streaming数据分析案例:黑名单过滤
12. Spark ML(机器学习算法)
以实际例子讲解算法工作中数据处理、特征工程、模型训练、评估、更新等过程所使用模,了解并掌握基本的算法原理及应用场景。
  • 1.Mllib算法概述(分类)
  • 2.Mllib算法概述(聚类)
  • 3.Mllib数据工程模块—数据工程作用
  • 4.Mllib数据工程模块—常见算法所用数据
  • 5.Mllib数据工程模块—建模基本流程
  • 6.Pipelines算法工作流—Pipelines思想
  • 7.Pipelines算法工作流—Transformer和estimator解析
  • 8.Pipelines算法工作流—工程实现流程
13. Flink
Flink是由Apached的一个开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行时系统可以执行批处理和流处理程序。
  • 1.Flink 介绍
  • 2.Flink 应用场景
  • 3.Flink 架构图和组件
  • 4.Flink环境搭建 单机
  • 5.Flink环境搭建 Standalone
  • 6.Flink环境搭建 Yarn
  • 7.Flink HA 高可用
  • 8.Flink 项目模板:Scala、Java
  • 9.Flink 流处理架构
  • 10.Flink 有状态的流处理
  • 11.Flink 运行模式
  • 12.Flink 资源管理和任务调度
  • 13.FlinkDataStream编程模型
  • 14.Flink DataStream API 、Windows、Time、Watermark
  • 15.Flink Streaming Connectors:  Flink Source & Sink、Kafka Connectors详解
  • 16.Flink状态管理和容错机制 一致性,检查点
  • 17.Flink状态管理和容错机制 保存点,反压机制
  • 18.Flink DataSet API,广播变量,分布式缓存
  • 19.Flink Table API & SQL介绍
  • 20.Flink SQL 自定义函数 自定义数据源
  • 21.Flink其他组件 Pattern API ,Geely图计
  • 22.FlinkML机器学习
  • 23.Flink监控与性能优化
14. Java性能优化和分布式中间件探析
  • 1.再谈JVM 内存模型
  • 2.JVM算法和垃圾回收机制
  • 3.JVM生产环境监控命令和指标
  • 4.JVM面试常考点分析
  • 5.Java多线程实战
  • 6.Java锁机制分析和优化
  • 7.Kafka 和 ZooKeeper 的分布式消息队列原理
  • 8.5.ZK在kafka的作用,分布式环境中Leader机制和算法研读
免费获取完整学习大纲
你将胜任大数据生态体系的多个高薪岗位

京东招聘:

大数据开发工程师 (15K-30K)

任职要求:

1、计算机及相关专业,本科及以上学历,熟练掌握Java/Python/Scala等多种语言;
2、熟练掌握Hive、Spark、Flink等大数据计算框架,对离线和实时数据处理流程有深入理解,能及时排除故障、提高集群运算效率;
3、熟悉HDFS、HBase、Kafka等大数据组件,已形成完整的技术闭环,能够独立制定技术方案并完成研发;
4、学习能力强,喜欢研究大数据前沿技术,具备较好的逻辑分析能力,善于从数据中发现潜在价值,有团队观念,能承受一定的工作压力。从事过医疗相关数据工作者优先。

腾讯招聘:

大数据运维工程师 (16K-32K)

任职要求:

1、大学本科及以上学历,计算机或者相关专业,3年以上工作经验;
2、深入理解linux系统,运维体系结构,精于容量规划、架构设计、性能优化;
3、具备良好的客户服务意识,善于团队协作,项目管理,主动思考,自我驱动力强;
4、熟练掌握一门以上脚本语言(shell/python等);
5、熟悉java/Go等开发语言者优先;
6、有运营过hadoop、spark、storm、kafka等相关系统2年以上经验优先;
7、有海量数据分布式处理、计算、存储等相关的工作经验者优先。

商汤科技招聘:

大数据开发工程师 (25K-50K)

任职要求:

1、本科或以上学历,计算机相关专业,2年以上相关工作经验
2、熟悉Linux开发环境,熟练掌握C++/Java/Scala/Python等任一编程语言,算法基础扎实,编码能力优秀
3、了解分布式系统的基本原理,具有分布式存储、计算平台(Hadoop、Spark等)的开发和实践经验,熟悉相关系统的运维、调优方法
4、有一线互联网公司大数据处理、数据仓库建设、及数据安全等方面工作经验者优先
5、有图像处理、深度学习相关研发经验者优先
6、责任心强,具有良好的学习能力、沟通能力和团队合作精神

映客招聘:

数据仓库工程师(校招) (15K-25K)

任职要求:

1、了解hive/hadoop等分布式计算技术,了解其运行机制和体系结构
 2、灵活运用SQL实现海量数据ETL加工处理 ,有较好的SQL性能调优经验
 3、思路清晰,对数据敏感,有良好的沟通表达能力和跨团队协作能力
 4、有一定的数据分析和挖掘能力,能从海量数据提炼核心结果,及时发现和分析其中隐含的变化和问题,有数据分析、挖掘、清洗、建模和BI分析的经验优先
5、有扎实的数据结构和算法基础,至少熟练掌握一门语言,熟悉Shell,Python等一门以上脚本语言
6、了解数据仓库领域知识和技能者优先,包括但不局限于:数据集市设计、元数据管理、数据质量

实实在在的学员评价,真真实实的课程效果
叫我小白
对于大数据零基础的我,这套体系课程真的超合适,内容很详细完整,实战项目实用性很强,老师也都是有非常丰富的大数据项目实战经验的,关键是老师很负责很nice,有什么问题都是很耐心的解答,面试方面老师也给了不少非常实用的建议,五星推荐。。
bravo123
老师很贴心,因为平常工作比较忙要加班,只能比较晚的时候学,有时候比较晚学到不懂问老师老师也很耐心的解答,给老师点个赞赞赞赞赞赞!
Cicon
督促统一学习进度和阶段测验设置简直不要太好了,当初报名也是冲着这个来的,对于零基础的没有实战经验的人个人觉得实在太有必要了,不然纯理论学完都不检测都不知道神马跟神马。
lovejava
课程很注重让大家都学习思考知识实际应用的业务场景,这点很棒,毕竟学完都是要去用的,不然面试的就傻了。老师讲课逻辑很清晰,群里的学员也很活跃。
大雪纷飞
课程非常棒,讲的很仔细的,只要认真听的,绝对收获满,讲的实战项目超级接地气,去面试讲这些项目的时候都感觉特别有底气。
badboy
课程听的很爽,完全没有新手听的一脸懵逼的感觉,老师很nice,对找工作面试给了很多很好的建议。
丰富的就业指导,创造无限就业
职业规划免费咨询
1
java大数据工程师和python数据分析师有什么区别呢?
大数据工程师(Java)需要精通大数据的多个组件原理,熟练运用其进行业务开发,技能要求:Java、Scala,Hadoop,Hive,Spark,Zookeep等。数据分析师(python)需要有一定的脚本语言基础,对数据敏感面,对常规唯独指标的概念和计算逻辑非常熟悉,对日志系统和统计系统有一定了解更好。技能要求:统计学常识,Hive sql,python。
2
课程有效期多久呢?教学视频可以下载离线看吗?
课程永久有效哦!为了保护课程版及保证课程质量,教学视频暂时不提供下载,可以随时在线学习,相关课件和资料可以下载。
3
学完这个体系课程,能做大数据实战项目吗?
可以的,本次体系课程的授课老师都有丰富的真实企业大数据项目实战经验,课程内容以理论结合实战,紧扣实际业务场景,以培训学员的实际项目应用能力为核心。我们还会有阶段测验以及最后的项目作业检测,以保证学员的学习效果。
4
之前没有接触过大数据,完全没有大数据基础的人可以报名学习吗?
完全可以的哦,这个体系课程就是专门为零基础学员设计的,为零基础学员从入门到进阶规划学习路线
我有些疑问
课程优惠请撩小姐姐
微信ID: phoebe2016524
未来已来,努力奋斗!