ゼロから作るDeep Learning ~Pythonで学ぶディープラーニングの理論と実装~ 3章までの感想
良書と噂される(帯曰く5万冊売れている)「ゼロから作るDeep Learning」を読み始めた。
読了してから感想を書こうかと思ったが、濃厚な内容から最初の方を忘れてしまいそうなので、数回に分けて感想を書こうと思う。
お決まり(amazonリンク)
読んだ本は↓の本です。
ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- 作者: 斎藤康毅
- 出版社/メーカー: オライリージャパン
- 発売日: 2016/09/24
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (10件) を見る
なぜ本書を読もうと思ったか
・Tensorflowを使って為替予測を行ったが、学習データ100%、テストデータ50%というお手本通りの過学習を起こしたたが、過学習が起こる仕組みと論理的な回避策(WEBに転がっているソースをコピペするのではなく勝つべくして勝てる理論)を考えられるようになるため。
・さらにブレイクダウンすると、誤差逆伝搬の計算方法とロジックを理解したいため。
・別の切り口として、初期値と学習率の論理的な決定方法を知るため。
・さらに、tensorflowをブラックボックスとして利用するには限界がきそうなので、Deep Learningを自分で実装できるようになるため。
目的は達成されたか?されそうか?
・章立てとして、目的を達成しうる目次があるため、今後に期待。現在3章まで読了したが、今のところ「目から鱗が落ちる」レベルの内容ではないし、目的も達成できていない。
(確かに非常にわかりやすく記載されていて、読みやすい)
・パーセプトロンとディープラーニングの違いは活性化関数だけ(前者はステップ関数で後者はシグモイド)という言葉はしっくりこず(自分のレベルが低いだけか?..)
・重みとは、即ちインプットデータの認識に対する重要度である(みたいな)記載にはなぜか「おっ」と思った。学習後のパラメータでどこの重みが大きいとか見たことなかったが、重みの値が大きいものだけを残してその重みをコピーして再度学習したりして、重要な重みを細分化すると認識精度が上がったりするのだろうか..
読みやすいですし、著者のDeep Learningへの愛がにじみ出ていて面白い本なので、引き続き読み進めようと思います。
以上