开发者问题收集

Pyspark .toPandas() 导致对象列中预期为数字

2015-11-02
23121

我从我们的数据仓库中提取数据,将其存储在 parquet 文件中,然后将所有 parquet 文件加载到 spark 数据框中。 到目前为止一切顺利。但是,当我尝试使用 pandas.plot() 函数绘制此图时,它会抛出一个“TypeError:空‘DataFrame’:没有要绘制的数字数据”

因此,我开始向后调查我的源代码,我认为从我的初始 sql 语句转换为十进制是问题之一。但我不知道如何解决这个问题。我以为 fillna(0) 可以解决问题,但事实并非如此。

步骤 1:定义用于提取数据的 SQL 语句

mpr_sql = """
select 
CAST(DATE_KEY  AS INTEGER) AS DATE_KEY ,
CAST(AMD  AS INTEGER) AS AMD ,
CAST(AMD_2  AS DECIMAL(12,2)) AS AMD_2 ,
CAST(AMD_3  AS DECIMAL(12,2)) AS AMD_3 ,
CAST(AMD_4  AS DECIMAL(12,2)) AS AMD_4 ,
CAST(AMD_0  AS DECIMAL(12,2)) AS AMD_0 
"""

步骤 2:根据提取的数据创建 spark 数据框

df1 = sqlContext.load(source="jdbc", 
                         driver="com.teradata.jdbc.TeraDriver", 
                         url=db_url,
                         user=db_user
                         TMODE="TERA",
                         password=db_pwd,
                         dbtable="( "+sql+") a")

步骤 3:将 spark 数据框存储在具有 10 个分区的 parquet 文件中

df1.coalesce(10).write.parquet("./mpr"+month+"sorted.parquet")
df = sqlContext.read.parquet('./mpr*sorted.parquet')

步骤 4:查看 spark 数据框模式(显示 decimal(12,2))

df.printSchema()
root
 |-- DATE_KEY: integer (nullable = true)
 |-- AMD:   integer (nullable = true)
 |-- AMD_2: decimal(12,2) (nullable = true)
 |-- AMD_3: decimal(12,2) (nullable = true)
 |-- AMD_4: decimal(12,2) (nullable = true)
 |-- AMD_0: decimal(12,2) (nullable = true)

步骤 5:将 spark 数据框转换为 pandas 数据框,并将所有 Null 替换为 0(使用 fillna(0))

pdf=df.fillna(0).toPandas()

步骤 6:查看 pandas 数据框信息对于相关列。AMD 是正确的(整数),但 AMD_4 是对象类型,而我期望的是双精度或浮点或类似的类型(抱歉,总是忘记正确的类型)。而且由于 AMD_4 是非数字类型,我无法使用它来绘制图表。

pdf[['AMD','AMD4']].info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 20 entries, 20140101 to 20150801
Data columns (total 2 columns):
AMD         20 non-null int64
AMD_4       20 non-null object
dtypes: int64(1), object(1)
memory usage: 480.0+ bytes

所以我的问题是:

  1. 为什么 AMD_4(以及此处未显示的其他 AMD_x 列)是对象类型,而 AMD 是 int64 类型?
  2. 或者换句话说,我如何使 AMD_x 列成为浮点/双精度/十进制类型
2个回答

我遇到了同样的问题,然后我弄清楚了原因是什么。

在转换过程中,数据类型会合并,例如 int/long -> int64、double -> float64、string -> obj。对于所有未知数据类型,它将转换为 obj 类型。

在 Pandas 数据框中,没有十进制数据类型,因此所有十进制数据类型的列都将转换为 obj 类型。

如果您可以在应用 toPandas() 之前将所有十进制数据类型转换为双精度类型,那么您将拥有所有可供使用的数值数据。

from pyspark.sql.functions import *
from pyspark.sql.types import *
df = df.withColumn('AMD_4', col('AMD_4').cast(DoubleType())).withColumn('AMD_2', col('AMD_2').cast(DoubleType()))
pdf = df.toPandas()

在 pdf 中,AMD_4 和 AMD_2 现在将是数字。

Gary Liu
2019-08-16

首先检查 pdf.isnull().sum()
1.它应该全部为零。出于某种原因,如果某些列计数返回 na 或 nan,您始终可以使用 pandas fillna()

pdf = df.fillna(0).toPandas()
pdf = pdf.fillna(0)

pdf=df.toPandas().fillna(0)

2.如果全部为零,则检查类型不匹配的位置,

pdf.applymap(lambda x: isinstance(x, (int, float)))  

并更正它

WoodChopper
2015-11-02