加入收藏 | 设为首页 | 会员中心 | 我要投稿 商洛站长网 (https://www.0914zz.com/)- AI应用、CDN、边缘计算、云计算、物联网!
当前位置: 首页 > 编程开发 > Python > 正文

python – 大型Pandas Dataframe并行处理

发布时间:2020-12-04 23:11:39 所属栏目:Python 来源:互联网
导读:我正在访问一个非常大的Pandas数据帧作为全局变量.通过 joblib并行访问此变量. 例如. df = db.query(select id, a_lot_of_data from table)def process(id): temp_df = df.loc[id] temp_df.apply(another_function)Parallel(n_jobs=8)

我正在访问一个非常大的Pandas数据帧作为全局变量.通过 joblib并行访问此变量.

例如.

df = db.query("select id,a_lot_of_data from table")

def process(id):
    temp_df = df.loc[id]
    temp_df.apply(another_function)

Parallel(n_jobs=8)(delayed(process)(id) for id in df['id'].to_list())

以这种方式访问原始df似乎是跨进程复制数据.这是意料之外的,因为原始df在任何子进程中都没有被改变? (或者是吗?)

解决方法

对于joblib创建的每个进程,需要对整个DataFrame进行pickle和unpickled.在实践中,这非常慢并且还需要很多次的记忆.

一种解决方案是使用表格格式将数据存储在HDF(df.to_hdf)中.然后,您可以使用select来选择数据子集以进行进一步处理.在实践中,这对于交互式使用来说太慢了.它也非常复杂,您的工作人员需要存储他们的工作,以便在最后一步中进行整合.

另一种方法是使用target =’parallel’探索numba.vectorize.这将需要使用NumPy数组而不是Pandas对象,因此它也有一些复杂性成本.

从长远来看,希望dask能够为熊猫带来并行执行,但这不是很快就会发生的事情.

(编辑:商洛站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读