张映 发表于 2019-12-30

分类目录: hadoop/spark/scala

大数据开发的debug,根一般开发的debug是有所不同的,下面会说一下本地debug的方法。关于远程的debug,请参考:idea 2步配置 远程调试spark

阅读全文>>

张映 发表于 2019-12-28

分类目录: hadoop/spark/scala

1,下载spark

# git clone https://github.com/apache/spark.git
# git checkout branch-2.4

阅读全文>>

张映 发表于 2019-12-27

分类目录: hadoop/spark/scala

cdh6默认没有spark-sql,对于开发来说,有没有spark-sql都不重要,建议开发者,尽量少用sql语句。而对于数据分析人员来说,hive sql较慢,spark-sql还是比较合适的。

cdh6的安装,请参考:cloudera cdh 6.3 安装配置

阅读全文>>

张映 发表于 2019-12-17

分类目录: hadoop/spark/scala

RDD、DataFrame、Dataset全都是spark平台下的分布式弹性数据集,为处理超大型数据提供便利都有惰性机制,在进行创建、转换,如map方法时,不会立即执行,只有在遇到Action如foreach时,才会开始遍历运算,极端情况下,如果代码里面有创建、转换,但是后面没有在Action中使用对应的结果,在执行时会被直接跳过,DataFrame与Dataset均支持sparksql的操作,rdd不支持。

阅读全文>>

张映 发表于 2019-12-16

分类目录: hadoop/spark/scala

当表数据以文本文件的形势,存放在hdfs上,不管是内部表,还是外部表,导入数据都是比较好操作的。直接通过hdfs命令直接copy到文件服务器上的对应目录就好了,注意hdfs目录的访问权限。

parquet也是可以这样操作的

阅读全文>>

张映 发表于 2019-12-13

分类目录: hadoop/spark/scala

parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发, Parquet的灵感来自于2010年Google发表的Dremel论文,文中介绍了一种支持嵌套结构的存储格式,并且使用了列式存储的方式提升查询性能,在Dremel论文中还介绍了Google如何使用这种存储格式实现并行查询的。

csv,txt是行式存储,转换过后,在查询速度提高了不少,特别是存储空间,减少了90%多。

阅读全文>>

张映 发表于 2019-12-06

分类目录: hadoop/spark/scala

Cloudera Manager还是比较耗资源的,想把Cloudera Manager,移动到比较好的机器上。

cdh的安装请参考:cloudera cdh 6.3 安装配置

在这篇文章中,Cloudera Manager安装在bigserver1上面,bigserver1是奔腾双核的CPU。

阅读全文>>

张映 发表于 2019-12-05

分类目录: hadoop/spark/scala

数据量的增加,增加datanode是必然,独立hadoop增加数据节点,请参考:hadoop 动态增加节点

阅读全文>>

张映 发表于 2019-12-04

分类目录: hadoop/spark/scala

cloudera后台,显示,存在隐患 : 以下网络接口似乎未以全速运行:enp4s0。1 主机网络接口似乎以全速运行。

cloudera cdh6的测试机,都是公司淘汰下来的员工使用过的台式机,很差。硬件达不到要求。才会有上面的问题。然后不影响系统的使用,但是看着不舒服。

阅读全文>>

张映 发表于 2019-12-04

分类目录: hadoop/spark/scala

namenode ha肯定是要去做的。如果调度节点挂掉了,又没有备用节点的话,那整个大数据系统就等于挂掉了。

阅读全文>>