как записать большой объем данных с Clickhouse

Всем привет! мне нужно переложить большой объем данных(порядка 2млрд записей в день) с ClickHouse на hdfs. Были попытки через spark со следующими настройками, но это не работает у меня, возможно где-то ошибаюсь

val df = spark.read
  .format("jdbc")
  .option("driver", "cc.blynk.clickhouse.ClickHouseDriver")
  .option("url", "jdbc:clickhouse://local:")
  .option("user", "user")
  .option("password", "pass")
  .option("dbtable", "table")
  .option("partitionColumn", "ts")
  .option("lowerbound", "1624579200")
  .option("upperbound", "1654559999")
  .option("numpartitions", "100")
  .load()

получаю ошибки как правило что-то типа reached end of stream after reading 153916 bytes; 176542 bytes expected


Ответы (0 шт):