Getting error while doing truncate redshift table using S3ToRedshiftOperator(使用S3ToRedShitOperator执行截断红移表时出错)
本文介绍了使用S3ToRedShitOperator执行截断红移表时出错的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我想在将CSV文件加载到RedShift表之前截断RedShift表。
错误: airflow.exceptions.AirflowException:传递给S3ToRedshitOperator(task_id:dag_run_s3_to_redshift)的参数无效。无效参数为: **kwargs:{‘method’:‘place’}
以下代码:
task_fail_s3_to_redshift = S3ToRedshiftOperator(
s3_bucket=S3_BUCKET,
s3_key="{{ti.xcom_pull(task_ids='export_db',key='FILE_PATH_1')}}",
schema="dw_stage",
table="task_fail",
copy_options=['csv',"IGNOREHEADER 1"],
redshift_conn_id='redshift',
method='REPLACE',
task_id='task_fail_s3_to_redshift',
)
start >> task_fail_s3_to_redshift >> end
推荐答案
method参数添加在PR中:
apache-airflow-providers-amazon >= 2.4.0
您遇到的错误意味着您使用的是旧版本的Amazon Provider,这就是它不适用于您的原因。
您的选项包括:
1.升级提供程序
pip install apache-airflow-providers-amazon --upgrade
2.如果不提供升级选项,则使用已弃用的truncate_table参数:
task_fail_s3_to_redshift = S3ToRedshiftOperator(
s3_bucket=S3_BUCKET,
s3_key="{{ti.xcom_pull(task_ids='export_db',key='FILE_PATH_1')}}",
schema="dw_stage",
table="task_fail",
copy_options=['csv',"IGNOREHEADER 1"],
redshift_conn_id='redshift',
truncate_table=True,
task_id='task_fail_s3_to_redshift',
)
因为您需要截断选项-它将为您提供相同的功能。
这篇关于使用S3ToRedShitOperator执行截断红移表时出错的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
沃梦达教程
本文标题为:使用S3ToRedShitOperator执行截断红移表时出错
基础教程推荐
猜你喜欢
- 包装空间模型 2022-01-01
- PANDA VALUE_COUNTS包含GROUP BY之前的所有值 2022-01-01
- 无法导入 Pytorch [WinError 126] 找不到指定的模块 2022-01-01
- Plotly:如何设置绘图图形的样式,使其不显示缺失日期的间隙? 2022-01-01
- 求两个直方图的卷积 2022-01-01
- 在Python中从Azure BLOB存储中读取文件 2022-01-01
- PermissionError: pip 从 8.1.1 升级到 8.1.2 2022-01-01
- 使用大型矩阵时禁止 Pycharm 输出中的自动换行符 2022-01-01
- 修改列表中的数据帧不起作用 2022-01-01
- 在同一图形上绘制Bokeh的烛台和音量条 2022-01-01
