python-用pyspark替换 dataframe 中列的所有值

我正在寻找用特定值替换spark dataframe 中的列的所有值.我正在使用pyspark.我尝试过-

new_df = df.withColumn(‘column_name’,10)

在这里,我想将column_name列中的所有值替换为10.在 pandas 中,可以通过以下方式完成
df [‘column_name’] = 10.我无法弄清楚如何在Spark中执行相同的操作.

最佳答案

可能更容易使用light,如下所示:

from pyspark.sql.functions import lit
new_df = df.withColumn('column_name', lit(10))