以下なナニに参加。
諸々メモを以下に。
目的とすすめかた
- ディープラーニングの雰囲気をつかみたい
- ひとりで悩むよりみんなで知恵を出しあおう
そか、別の LT イベントでやりたい、って言ったのでした。
- 半分黙読、残りで議論
- 場のノリで時間延長アリ
- 目標は 5 章
自己紹介
uitf ってファミリーステイな場所にしたい。家族で集りたい、とのことで子供の参加も問題ないように保育士な奥さまもいらしてるとの事。
途中 LT および休憩、を挟みつつ、とのこと。流れてきには章毎 20m で 2 章および 3 章を、とのこと。
読書会
- 10 分黙読
- 10 分検討
とのこと。
2 章
-
nand といえば例の本
-
バイアス、をどうしてるか、というあたりは以降で確認
-
nand な素子を作れば何でも作れます
-
パーセプトロンはアルゴリズム
-
層を重ねることで複雑な事もできるように
3 章
-
活性化関数 (シグモイド、ReLU)
-
3.6 の例は学習済みのパラメータを使って推論のみ (分類の例
-
推論、の例でどのようにニューラルネットワークを扱うか、という事が述べられている
-
ニューロン、は脳細胞のつながり (node も同じ意図で使われているとのこと
ひがさん LT
- 連想記憶?
- ネットワークのつながりかたで種類
- 多層パーセプトロン、は階層型
- アソシアトロン、連想記憶モデル
- 初期状態からステップごとに状態が変化して出力に至る
- つながり毎に重みがある
4 章
-
損失関数 (二乗和誤差、交差エントロピー誤差
-
4.2.5 について
-
誤差との差を小さく (関数で表現できればその値が小さくなる入力を探せる
-
特徴量の抽出
-
損失関数を指標として損失関数の値が小さくなるように重みパラメータを更新
-
重みの更新は勾配方向に重みの値を更新
-
微分で勾配を云々
-
初期値をどう選択するか、というテクニックもあるとのこと
-
TwiLayerNet
-
プログラムから理解しようとして 4.5 を読むのってorz
-
ch04/two_layer_net.py, ch04/train_neuralnet.py
-
ここの実装はきちんと読もう
-
5 章以降はテクニックの話になってくる
-
本だらだら読んだだけで実装見てないやorz
クロージング
-
不完全燃焼なカンジかもしれませんが
-
UITF はどうする?
-
PyData.Okinawa は毎月第三土曜日の午前、とのこと (@沖縄市
-
PythonBeginners沖縄で同じ本の勉強会する模様 (5.3
-
コード読み、は続けて weblog 出力したいと思う件