読者です 読者をやめる 読者になる 読者になる

予想通り不合理 -FXと機械学習と-

FXの自動売買や機械学習、その他勉強したことをシェアします

ゼロから作るDeep Learning ~Pythonで学ぶディープラーニングの理論と実装~ 3章までの感想

良書と噂される(帯曰く5万冊売れている)「ゼロから作るDeep Learning」を読み始めた。

読了してから感想を書こうかと思ったが、濃厚な内容から最初の方を忘れてしまいそうなので、数回に分けて感想を書こうと思う。

 

お決まり(amazonリンク)

 読んだ本は↓の本です。

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

 

 

なぜ本書を読もうと思ったか

・Tensorflowを使って為替予測を行ったが、学習データ100%、テストデータ50%というお手本通りの過学習を起こしたたが、過学習が起こる仕組みと論理的な回避策(WEBに転がっているソースをコピペするのではなく勝つべくして勝てる理論)を考えられるようになるため。

・さらにブレイクダウンすると、誤差逆伝搬の計算方法とロジックを理解したいため。

・別の切り口として、初期値と学習率の論理的な決定方法を知るため。

・さらに、tensorflowをブラックボックスとして利用するには限界がきそうなので、Deep Learningを自分で実装できるようになるため。

 

目的は達成されたか?されそうか?

・章立てとして、目的を達成しうる目次があるため、今後に期待。現在3章まで読了したが、今のところ「目から鱗が落ちる」レベルの内容ではないし、目的も達成できていない。

(確かに非常にわかりやすく記載されていて、読みやすい)

パーセプトロンディープラーニングの違いは活性化関数だけ(前者はステップ関数で後者はシグモイド)という言葉はしっくりこず(自分のレベルが低いだけか?..)

・重みとは、即ちインプットデータの認識に対する重要度である(みたいな)記載にはなぜか「おっ」と思った。学習後のパラメータでどこの重みが大きいとか見たことなかったが、重みの値が大きいものだけを残してその重みをコピーして再度学習したりして、重要な重みを細分化すると認識精度が上がったりするのだろうか..

 

読みやすいですし、著者のDeep Learningへの愛がにじみ出ていて面白い本なので、引き続き読み進めようと思います。

 

以上