Создание постоянного столбца в Spark DataFrame
Добавление постоянного столбца к искрутному DataFrame с произвольным значением, которое применимо ко всем рядам, может быть достигнуто несколькими способами. Метод Witcholumn, предназначенный для этой цели, может привести к ошибкам при попытке предоставить прямое значение в качестве второго аргумента.
использование буквальных значений (Spark 1.3)
]] для решения этой проблемы, используйте Lit, чтобы создать буквальное представление о Desired value:
from pyspark.sql.functions import lit df.withColumn('new_column', lit(10))]
создание сложных столбцов (Spark 1.4)
для более сложных типов столбцов, таких как массивы, Structs, или карты, используйте соответствующие функции:
from pyspark.sql.functions import lit df.withColumn('new_column', lit(10))typed literals (Spark 2.2)
spark 2.2. org.apache.spark.sql.functions.typedlit df.withcolumn ("some_array", typedlit (seq (1, 2, 3)))
Использование определенных пользовательских функций (UDFS)
from pyspark.sql.functions import lit df.withColumn('new_column', lit(10))
возврат f.udf (udf) df.withcolumn ('constant_column', constant_column (10))
примечание:
эти методы также могут использоваться для передачи постоянных аргументов в функции UDF или sql.
Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.
Copyright© 2022 湘ICP备2022001581号-3