问:现有一千万条的数据,如何高效的实现快速的增量数据抽取?

image.png

FineReport 数字化转型的学习者和实践者 发布于 2023-1-31 20:39
1min目标场景问卷 立即参与
回答问题
悬赏:3 F币 + 添加悬赏
提示:增加悬赏、完善问题、追问等操作,可使您的问题被置顶,并向所有关注者发送通知
共1回答
最佳回答
0
CD20160914Lv8专家互助
发布于2023-1-31 20:48(编辑于 2023-1-31 20:55)

mysql的话,在数据连接中配置一下这三个参数

其它的数据库一般不用配置,这个就要看数据库服务器配置与kettle的服务器硬件配置的配置了

,1000万条,如果服务器够好的话正常的话15-30分钟

Kettle--MySQL生产数据库千万、亿级数据量迁移方案及性能优化_kettle能处理多大数据量_普通网友的博客-CSDN博客

useServerPrepStmts=false

rewriteBatchedStatements=true

useCompression=true

image.png

image.png

  • 2关注人数
  • 316浏览人数
  • 最后回答于:2023-1-31 20:55
    请选择关闭问题的原因
    确定 取消
    返回顶部