【StreamSets】 JDBC_502 - Batch size greater than maximal batch size allowed in sdc.properties

谁践踏了优雅 2021-07-27 02:48 443阅读 0赞

【问题描述】

  1. 今天在CDH集群中使用StreamSets的时候报了如下的错误:
  2. JDBC_502 - Batch size greater than maximal batch size allowed in sdc.properties, maxBatchSize: 1000

【问题原因】

  1. 看错误很明显,默认的maxBatchSize:为1000,咱们从数据源中读取的记录数大于1000,于是会报这个错误。

【解决办法】

  1. CDH监控界面找到StreamSets的配置页面,搜索production.maxBatchSize,将默认值调大:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2dka3l4eTIwMTM_size_16_color_FFFFFF_t_70

  1. 这里需要注意的是,这个阈值调大之后,很可能会报Java内存溢出的情况,这里最好调大一下相关的配置:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2dka3l4eTIwMTM_size_16_color_FFFFFF_t_70 1

  1. 默认是1G,这里小编设置为4G

发表评论

表情:
评论列表 (有 0 条评论,443人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Epoch、Batch Size和迭代

    你肯定经历过这样的时刻,看着电脑屏幕抓着头,困惑着:「为什么我会在代码中使用这三个术语,它们有什么区别吗?」因为它们看起来实在太相似了。   为了理解这些术语有什么不同,你

    相关 Hibernate--批量抓取batch-size

    批量抓取 在抓取策略中有一种叫做批量抓取,就是同时查询多个对象的关联对象的时候,可以采用批量抓取进行优化。 如果要实现批量抓取效果,可以通过batch-size来完成。