到達目標
回帰や認識といった問題に対し,分析法,クラスタリング法,線形基底関数モデルによる回帰,線形識別モデルや階層型ニューラルネットワークなどの学習機械について理解し,それらの特性や導出過程を理解した上で,実データに対して適応できる.
ルーブリック
| 理想的な到達レベルの目安 | 標準的な到達レベルの目安 | 未到達レベルの目安 |
評価項目1 | 回帰問題を解くための方法を理解し,各種方法を使うことができる. | 回帰問題を解くための方法を理解している. | 回帰問題を解くための方法を理解していない. |
評価項目2 | 分類問題を解くための方法を理解し,各種方法を使うことができる. | 分類問題を解くための方法を理解している. | 分類問題を解くための方法を理解していない. |
評価項目3 | 次元削減の方法を理解し,各種方法を使うことができる. | 次元削減の方法を理解している. | 次元削減の方法を理解していない. |
評価項目4 | 生成モデルの方法を理解し,各種方法を使うことができる. | 生成モデルの方法を理解している. | 生成モデルの方法を理解していない. |
学科の到達目標項目との関係
教育方法等
概要:
学習機械を用いた回帰やパターン認識は,現在のデータ処理,データ解析分野において必須のものである.音声認識分野,画像処理分野,自然言語処理,バイオインフォマティクス,脳神経科学,認知科学など多岐にわたり応用され,多くの業務で必要とされている.本授業では,回帰と認識についてさまざまな方法論について,理論的背景から応用例まで紹介する. この科目は研究所で脳神経科学の研究を行なっていた教員が,その経験を生かし,機械学習の手法などについて講義,演習形式で授業を行うものである.
授業の進め方・方法:
各週の内容は,学習・教育到達目標(B)<基礎>およびJABEE基準1.2(c)に対応する。
「授業計画」における各週の「到達目標」はこの授業で習得する「知識・能力」に相当するものとする
注意点:
<到達目標の評価方法と基準>
授業計画の「達成目標」1~12を網羅した問題を1回の中間試験、2回の定期試験および演習に対するレポートで出題し、目標の達成度を評価する。達成度評価における各「知識・能力」の重みは概ね均等とする。合計点の60%の得点で、目標の達成を確認できるレベルの試験を課す.
<学業成績の評価方法および評価基準>
前期は前期末試験で70%、レポート、小テスト等で30%で評価する。
後期は後期中間、学年末の4回の試験の平均を80%,レポートを20%で評価する。再試験は行わない。
<単位修得要件>
学業成績で60点以上を取得すること.
<自己学習>授業で保証する学習時間と、予習・復習(中間試験,定期試験のための学習も含む)に必要な標準的な学習時間の総計が、90時間に相当する学習内容である。
<あらかじめ要求される基礎知識の範囲>
情報理論Ⅰ,応用数学I,応用数学IIと関連が深い.
授業計画
|
|
週 |
授業内容 |
週ごとの到達目標 |
前期 |
1stQ |
1週 |
イントロダクション |
統計的機械学習についての概略を知る
|
2週 |
ベイズ理論,グラフィカルモデル,ベイジアンネットワーク |
2. ベイズの定理を用いて事後確率を計算できる 3. グラフィカルモデルにより確率変数間の関係を記述でき,簡単なベイジアンネットワークの確率計算ができる
|
3週 |
最小二乗法によるカーブフィッティング |
4. 線形基底関数モデルにより回帰問題を解くための手法を理解し、必要な式の導出ができる
|
4週 |
ガウス分布,最尤推定 |
5. ガウス分布について理解する
|
5週 |
演習1 |
上記4
|
6週 |
線形基底関数モデルによる回帰,MAP推定とベイズ推定 |
上記4,5
|
7週 |
演習2 |
|
8週 |
多次元ガウス分布 |
上記5
|
2ndQ |
9週 |
決定理論 |
6. 認識問題を解くためのさまざまな手法について理解する
|
10週 |
パーセプトロン,ロジスティック回帰,最適化問題(最急降下法、ニュートン法) |
7. 誤差関数を逐次法によって最小化するための手法を理解する
|
11週 |
演習3 |
上記6,7
|
12週 |
ニューラルネットワーク(誤差逆伝搬法) |
8. 階層型ニューラルネットワーク、誤差逆伝搬法について理解する
|
13週 |
ニューラルネットワークの応用と評価 |
上記8
|
14週 |
演習4 |
上記8
|
15週 |
演習4 |
上記8
|
16週 |
|
|
後期 |
3rdQ |
1週 |
ディープラーニング技術1(CNN) |
9. CNN,ディープラーニングの特徴について理解する
|
2週 |
演習5 |
上記8,9
|
3週 |
サポートベクトルマシン1 |
10. SVM, カーネルマシンの特性について理解している
|
4週 |
サポートベクトルマシン2 |
上記10
|
5週 |
演習6 |
上記10
|
6週 |
決定木,アンサンブル学習 |
11. 決定木,アンサンブル学習について理解する
|
7週 |
演習7 |
上記11
|
8週 |
中間試験 |
ここまでに学習した内容を説明し、必要な式の導出ができる
|
4thQ |
9週 |
k-meansと混合ガウス分布 |
12. さまざまなクラスタリング手法について理解する
|
10週 |
次元削減,主成分分析 |
13. さまざまな次元削減手法について理解する
|
11週 |
演習8 |
上記12,13
|
12週 |
生成モデル |
14. さまざまな生成モデル学習法について理解する
|
13週 |
HMM |
15. 隠れマルコフモデルについて理解する
|
14週 |
時系列モデル(RNN, LSTM) |
16. 時系列モデルについて理解する
|
15週 |
演習9 |
上記15,16
|
16週 |
|
|
モデルコアカリキュラムの学習内容と到達目標
分類 | 分野 | 学習内容 | 学習内容の到達目標 | 到達レベル | 授業週 |
評価割合
| 試験 | レポート | 合計 |
総合評価割合 | 80 | 20 | 100 |
配点 | 80 | 20 | 100 |