使用etl工具kettle的日常踩坑梳理之二、从Hadoop中导出数据
想操作MySQL等关系型数据库的可以访问我上一篇文章,本章主要介绍操作Hadoop等大数据组件。
根据2024年11月份测试了kettle工具在9.3及以上版本已经没有内置连接大数据(如Hadoop)组件了。
建议安装9.2及以下的,我这里送上8.3.0版本的请用百度网盘下载
链接:https://pan.baidu.com/s/1INRChuepogd332b81fC32w?pwd=4ll9
提取码:4ll9
然后还需要注意的是Java版本不能过高,要不然也会出现异常,我使用Java8没问题。
1、如果是在win系统中使用就点击.bat文件,然后如果是在linux中就运行.sh文件
2、进入后应该看到这个页面,然后点击文件->新建->转换
3、我现在想把hive中某一张表的数据导出来,就先点击输入下面的表输入,输出就是用什么格式的文件存储,比如我想用csv存储就选择这个文本文件输出。(其实就是数据从哪里来就选择输入,到哪里去就输出)
4、点击新建,配置好数据库连接信息,如果你配置了无须用正确的用户名和密码访问就还需要进入选项配置auth=noSasl
可以测试一下连接是不是正常可以使用,别忘记保存哟
5、点击这个获取sql查询语句选择你需要导出的是哪张表的数据,字段可以自定义。然后保存
6、然后点击导出的csv进行简单的配置,比如保存的目录文件名称,设置分隔符,编码格式等(点击浏览可以设置)。
7、然后按住shift键别动,用鼠标把两个拉起来,然后点击那个三角形启动,然后会弹出导出的过程
显示转换完成就可以去你刚才保存的目录下看了,导入的流程也是一样,只不过输入输出顺序填好
原文地址:https://blog.csdn.net/ymdaa555/article/details/143774422
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!