【已解决】2.1版本,使用spark导入数据时,频繁出现 get tableList write lock timeout

Viewed 96

image.png

image.png

url且已添加rewriteBatchedStatements=true 参数

3 Answers

麻烦看下fe.conf中JVM内存目前是多少,如果资源足够的话,可以调整下FE JVM内存然后再测试下的

目前为16G,没升级2.1前,执行此任务没出现过这种情况,升级后频繁出现