提问者:小点点

Spark加载数据并将文件名添加为数据框列


我用一个包装函数将一些数据加载到Spark中:

def load_data( filename ):
    df = sqlContext.read.format("com.databricks.spark.csv")\
        .option("delimiter", "\t")\
        .option("header", "false")\
        .option("mode", "DROPMALFORMED")\
        .load(filename)
    # add the filename base as hostname
    ( hostname, _ ) = os.path.splitext( os.path.basename(filename) )
    ( hostname, _ ) = os.path.splitext( hostname )
    df = df.withColumn('hostname', lit(hostname))
    return df

具体来说,我使用glob一次加载一堆文件:

df = load_data( '/scratch/*.txt.gz' )

这些文件是:

/scratch/host1.txt.gz
/scratch/host2.txt.gz
...

我希望“hostname”列实际包含要加载的文件的真实名称,而不是glob(即host1host2等,而不是*)。

我该怎么做?


共1个答案

匿名用户

您可以使用以下input_file_name

为当前 Spark 任务的文件名创建一个字符串列。

from  pyspark.sql.functions import input_file_name

df.withColumn("filename", input_file_name())

Scala中的同样的事情:

import org.apache.spark.sql.functions.input_file_name

df.withColumn("filename", input_file_name)

相关问题