読者です 読者をやめる 読者になる 読者になる

予想通り不合理

勉強した内容や考えた内容を備忘がてら書き留めます

ゼロから作るDeep Learning ~Pythonで学ぶディープラーニングの理論と実装~ 3章までの感想

良書と噂される(帯曰く5万冊売れている)「ゼロから作るDeep Learning」を読み始めた。

読了してから感想を書こうかと思ったが、濃厚な内容から最初の方を忘れてしまいそうなので、数回に分けて感想を書こうと思う。

 

お決まり(amazonリンク)

 読んだ本は↓の本です。

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

 

 

なぜ本書を読もうと思ったか

・Tensorflowを使って為替予測を行ったが、学習データ100%、テストデータ50%というお手本通りの過学習を起こしたたが、過学習が起こる仕組みと論理的な回避策(WEBに転がっているソースをコピペするのではなく勝つべくして勝てる理論)を考えられるようになるため。

・さらにブレイクダウンすると、誤差逆伝搬の計算方法とロジックを理解したいため。

・別の切り口として、初期値と学習率の論理的な決定方法を知るため。

・さらに、tensorflowをブラックボックスとして利用するには限界がきそうなので、Deep Learningを自分で実装できるようになるため。

 

目的は達成されたか?されそうか?

・章立てとして、目的を達成しうる目次があるため、今後に期待。現在3章まで読了したが、今のところ「目から鱗が落ちる」レベルの内容ではないし、目的も達成できていない。

(確かに非常にわかりやすく記載されていて、読みやすい)

パーセプトロンディープラーニングの違いは活性化関数だけ(前者はステップ関数で後者はシグモイド)という言葉はしっくりこず(自分のレベルが低いだけか?..)

・重みとは、即ちインプットデータの認識に対する重要度である(みたいな)記載にはなぜか「おっ」と思った。学習後のパラメータでどこの重みが大きいとか見たことなかったが、重みの値が大きいものだけを残してその重みをコピーして再度学習したりして、重要な重みを細分化すると認識精度が上がったりするのだろうか..

 

読みやすいですし、著者のDeep Learningへの愛がにじみ出ていて面白い本なので、引き続き読み進めようと思います。

 

以上

 

ブログ始めました

ブログを書こう。

そう思い立ったため、ブログを始めた。

 

ブログを始めようと思った理由はいくつかある。以下の通りだ。

 

・頭の中身を文章化するという練習になる

・備忘録としてどこかに文章を書いておきたい

・何かよくわからない可能性を感じる

・ブログを書くことでブログの次の大衆情報発信方法を思いつくかも

 

頭の中身を吐露し、誰かに知ってもらうということが目的ではなく、

頭の中身を文章化することを目的としている

 

以下の内容をメインに書いていこうと思う。

 

ディープラーニング

・Tensorflow

・SE業務の効率化

 

初日から飛ばすと疲れるので、本日は以上。