hive 导入1600W条数据 测试

张映 发表于 2019-03-07

分类目录: hadoop/spark/scala

标签:,

hadoop家族操作大数据还是很给力的。今天就测试了一把,还行。

1,准备测试数据

# du -ah
2.9G ./track_toutiao_show.txt

2,导入

hive 导入数据测试

hive 导入数据测试

导入1600多万条,28秒多,还是挺给力的。

hive> select aid,cid from track_toutiao_show limit 20;
OK
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095529528
1624232561947693 1624233095655437
1624232561947693 1624233095655485
1624232561947693 1624233095655437
1624232561947693 1624233095655485
1624232561947693 1624233095529528
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095529528
1624232561947693 1624233095655437
1624232561947693 1624233095529528
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095655437
1624232561947693 1624233095655453
1624232561947693 1624233095655485
Time taken: 0.139 seconds, Fetched: 20 row(s)


转载请注明
作者:海底苍鹰
地址:http://blog.51yip.com/hadoop/2081.html

留下评论

留下评论
  • (必需)
  • (必需) (will not be published)
  • (必需)   3X4=?