精度はデフォルトで64bitだが、以下の本には16bitでもほとんど精度は落ちないと書いていたので精度を下げてみた。
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- 作者: 斎藤康毅
- 出版社/メーカー: オライリージャパン
- 発売日: 2016/09/24
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (18件) を見る
下げ方自体は簡単で、以下を実行するだけ。
tf.keras.backend.set_floatx('float16')
でもfloat16だと学習結果が大幅に悪くなってしまった。。16bit用の前処理が必要っぽい。 一旦何もしなくても大丈夫な32bitにしてます。
参考: