手元のデータセットで以下のコードを実行すると使用メモリ量が2GB程度増えた。
def _get_difference(self, num_feat_names: List[str], num_feats: DataFrame) -> DataFrame:
def diff(df: DataFrame) -> DataFrame:
return df.diff(1)
npartitions: int = min(os.cpu_count() * 3, int(len(num_feats) / 100))
ddf: dd.DataFrame = dd.from_pandas(num_feats, npartitions=npartitions).set_index("customer_ID")
ddf = ddf[num_feat_names].map_overlap(diff, 2, 0)
ddf = ddf.rename(columns={col: col + "_diff_1" for col in num_feat_names})
ddf = ddf.groupby("customer_ID").last()
return ddf.reset_index().compute()
上記コードの、
ddf = ddf[num_feat_names].map_overlap(diff, 2, 0)
を
ddf[num_feat_names] = ddf[num_feat_names].map_overlap(diff, 2, 0)
に変更すると使用メモリ量の増加が24GB程度になった(!)なぜだ・・
compute()した後の行数・列数は同じだし、ddfオブジェクトを削除してGCを実行しても使用メモリ量はほぼ変わらず。
daskが内部で持っているデータを解放できていないように見える。
こんなケースがあるとdask使いづらいな。。