また本を買ってしまった(シンギュラリティ関連)+読書状況
本日、気晴らしに外出した際に、本屋で立ち読みしていたら、シンギュラリティ関連の本があり、ついつい買ってしまいました。まだ読んでいない本や、読みかけの本が沢山あるのに... 先日、機械学習関連の輪講に出てから、本の購入に関する心理的なタガが外れた気がします。
技術書と異なり熟考する必要はないので、楽しみながら読もうと思います。
本日買った本
- 作者: 児玉哲彦
- 出版社/メーカー: ダイヤモンド社
- 発売日: 2016/03/21
- メディア: Kindle版
- この商品を含むブログ (2件) を見る
- 作者: 海猫沢めろん
- 出版社/メーカー: 講談社
- 発売日: 2016/05/18
- メディア: 新書
- この商品を含むブログ (4件) を見る
以前に買って途中までしか読んでいなかった本
下記、以前に買って、1/3ぐらい読んだのですが、最初の1/3は、シンギュラリティの必然性に関し、同じようなことが繰り返し書いてあり、少し飽きてしまいました。そのため、残りの部分を読まずに放置してました。改めて後半をパラパラめくったところ、後半はシンギュラリティの内容が書かれてているので、この本も、後半含めて読もうと思いいます。
シンギュラリティは近い [エッセンス版]―人類が生命を超越するとき
- 作者: レイ・カーツワイル,NHK出版
- 出版社/メーカー: NHK出版
- 発売日: 2016/04/26
- メディア: 単行本(ソフトカバー)
- この商品を含むブログ (2件) を見る
機械学習関連の読書状況
既に購入した機械学習関連の本は、深層学習を中心に読んでます。
以前に買った本で誤った説明が書いてあった「畳み込みニューラルネットワークのフィルター係数の逆伝搬方法」が一番気になったので、「Chapter 6 畳み込みニューラルネット」の「6.7 勾配の計算」を読んでいたのですが、少し分かりにくかったので、自分のために補足しておきます。(他の読者の方にも役立つようなことがあればうれしいですが...)
p.96で、重み行列の勾配としてという表記が出てきて分かりにくいと感じました。どうやら、を表しているらしいので、そのように書いてくれれば分かりやすかったのですが... 表記を変えて書き直して見ます。
本に書かれている下記の関係から始めます。(ちなみに、は全てのフィルターを並べたベクトル、は「(l-1)層のユニットi」と「(l)層のユニットj」の係数をから取り出すベクトル(1要素のみ1で他は0)」)
上記をの番目の要素で偏微分すると:
単純に、誤差関数をで偏微分し、がの関数であることと、上記を使うと下記になります。
ちなみに、本では、をと書いています。上記の右辺は、本のp.96の最後の式と同じですが、一般的な表記になっています。
後は、の式の前後に書かれたの計算式を使えば、の値が計算できます。これでに対するの勾配が求められるので、後は、通常と同様に、この値を元にの値を調整すれば良いです。
書き方が一般的ならば自明な式なので、一般的な書き方にして欲しかったです。