...

w - Nvidia

by user

on
Category: Documents
9

views

Report

Comments

Transcript

w - Nvidia
ハンズオン受講の為の準備講座
これから始める人の為の
ディープラーニング基礎講座
村上真奈
NVIDIA CUDA & Deep Learning Solution Architect
NVIDIA Corporation
1
機械学習とディープラーニングの関係
AGENDA
ディープラーニングとは?
ニューラルネットワークの構造
ディープラーニングの学習とは
•
•
畳み込みニューラルネットワーク
午後に予定しているハンズオンの為の基礎講座
ディープラーニングをこれから始める方を対象に
基礎概念や用語の解説を行います
http://www.slideshare.net/NVIDIAJapan/ss-71043984
機械学習とは?
機械学習とディープラーニングの関係
機械学習
ニューラルネットワーク
ディープラーニング
分類(Classification)と回帰(Regression)
機械学習とは?
• 分類問題の例
• 画像に写っているのが猫か犬の画像か推論する
• 回帰問題の例
• N社の1ヶ月後の株価を予想する
分類(Classification)と回帰(Regression)
機械学習とは?
回帰問題
分類問題
猫
分類も回帰もデータの法則を見つけて関数近似する必要がある
犬
分類問題の例
機械学習とは?
例) 正常と異常に分類する事を考える
正常
赤:異常
青:正常
𝑌 = αX + β
x2
異常
x1
分類問題の例
機械学習とは?
例) 正常と異常に分類する事を考える
赤:異常
青:正常
正常
x2
異常
x1
複雑な関数近似が必要になる
ディープラーニング手法による分類の例
学習が進むにつれて、分離
が上手くいくようになる
ディープラーニングとは
10
様々な分野でディープラーニングを応用
インターネットとクラウド
医学と生物学
メディアとエンターテイメント
セキュリティと防衛
機械の自動化
画像分類
音声認識
言語翻訳
言語処理
感情分析
推薦
癌細胞の検出
糖尿病のランク付け
創薬
字幕
ビデオ検索
リアルタイム翻訳
顔検出
ビデオ監視
衛星画像
歩行者検出
白線のトラッキング
信号機の認識
人工ニューラルネットワーク
単純で訓練可能な数学ユニットの集合体
ニューラルネットワーク全体で複雑な機能を学習
隠れ層
入力層
出力層
十分なトレーニングデータを与えられた人工ニューラルネットワークは、入力データから判断を行う
複雑な近似を行う事が出来る。
ディープラーニングの恩恵
ディープラーニングとニューラルネットワーク
 ロバスト性
 特徴量の設計を行う必要がない。 – 特徴は自動的に獲得される学習用データのバラつきの影響を
押さえ込みながら、自動的に学習していく
 一般性
 同じニューラルネットワークのアプローチを多くの異なるアプリケーションやデータに適用する事が出来る
 スケーラブル
 より多くのデータで大規模並列化を行う事でパフォーマンスが向上する
ディープラーニングのアプローチ
トレーニング:
エラー
犬
猫
モデル
犬
猫
アライグマ
蜜穴熊
認識:
犬
モデル
ニューラルネットワークの構造(多層パーセプトロン)
人工ニューロン
神経回路網をモデル化
神経回路網
人工ニューロン
y
w1
x1
w2
w3
x2
x3
スタンフォード大学cs231講義ノートより
y=F(w1x1+w2x2+w3x3)
F(x)=max(0,x)
人口ニューロン
ニューラルネットワークの構造
人工ニューロンを組み合わせ、多層ニューラルネットワークを構成可能
入力層のサイズはN
入力層のサイズは3
…
…
…
多層パーセプトロン(3層)
ニューラルネットワークの構造
入力層
x1
隠れ層
重み
重み
w111
w211
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
出力層
z2
w213
w223
z3
多層パーセプトロン(3層)
ニューラルネットワークの構造
入力層
x1
隠れ層
重み
重み
w111
w211
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
出力層
z2
w213
w223
z3
多層パーセプトロン
ニューラルネットワークの構造
入力
データ
x1
出力
データ
w111
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
w211
z2
w213
w223
z3
多層パーセプトロン
ニューラルネットワークの構造
x1
w111
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
w211
z2
w213
w223
z3
𝑥1
𝑥2
𝑥3
𝑤111
𝑤121
𝑤131
𝑤112
𝑤122 = 𝑦1
𝑤132
𝑦2
多層パーセプトロン
ニューラルネットワークの構造
x1
w111
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
w211
z2
w213
w223
z3
𝑦1
𝑦2
𝑤211
𝑤221
𝑤212
𝑤222
𝑤213
𝑧1
=
2
𝑤 23
𝑧2
𝑧3
多層パーセプトロン
ニューラルネットワークの構造
x1
w111
w112
x2
y1
w212
w122
w222
w132
y2
z1
w221
w121
w131
x3
w211
z2
w213
w223
z3
𝑥
1
2
𝑊𝑊
=𝑧
重み係数の調整
ニューラルネットワークの構造
x1
w111
w112
x2
y1
w212
w122
w222
w132
y2
教師データ
z1
t1
z2
t2
z3
t3
出力 z と正解ラベル t の誤差を
計算し 、出力が正解ラベルに近
づくように重みW1とW2を調整
w221
w121
w131
x3
w211
出力
w213
w223
ディープラーニングの学習
勾配降下法
勾配降下法
誤差逆伝播の仕組み
誤差 E
現在値から
減少させる
最適解に
近づけるには?
最適解
現在値
重み w
勾配降下法
誤差逆伝播の仕組み
誤差 E
最適解に
近づけるには?
現在値から
増加させる
現在値
最適解
重み w
勾配降下法
誤差逆伝播の仕組み
誤差 E
傾きが負なら
最適解より小さい
傾きが正なら
最適解より大きい
wn
最適解
wm
重み w
勾配降下法
誤差逆伝播の仕組み
誤差 E
最適解
(ゴール)
wn +2 wn +1 wn
重み w
学習率 (Learning Rate)
誤差逆伝播の仕組み
誤差 E
最適解
(ゴール)
www
wnwnw
-1n -322 1 w0
重み w
学習率 (Learning Rate)
誤差逆伝播の仕組み
誤差 E
重みの更新量は
学習率(Learning Rate)で調整
更新量
wnwn -1 w1 w0
重み w
勾配降下法の注意点
誤差逆伝播の仕組み
誤差 E
スタート
ゴール
局所解
重み w
勾配降下法の注意点
誤差逆伝播の仕組み
誤差 E
スタート
ゴール
最適解
重み w
誤差逆伝播法
順伝播(forward propagation)
誤差逆伝播法
入力
レイヤー2
レイヤー1
x
w
y
x
レイヤーN
y
x[N] ww[N][M]
x
w
y[M]
y
出力
正解ラベル
01000
00010
“dog”
“cat”
ロス
関数
39
逆伝播(backward propagation)
誤差逆伝播法
入力
レイヤー2
レイヤー1
x
y
x
レイヤーN
y
x
w
w
w
⊿w
⊿w
⊿w
⊿y
⊿x
⊿y
⊿x
y
出力
正解ラベル
01000
00010
“dog”
“cat”
ロス
関数
⊿y
error
40
重みの更新
誤差逆伝播法
入力
レイヤー2
レイヤー1
x
y
x
レイヤーN
y
x
w
w
w
⊿w
⊿w
⊿w
⊿y
⊿x
⊿y
⊿x
y
出力
正解ラベル
01000
00010
“dog”
“cat”
ロス
関数
⊿y
error
41
ミニバッチ
誤差逆伝播法
入力
レイヤー2
レイヤー1
x
y
x
レイヤーN
y
x
w
w
w
⊿w
⊿w
⊿w
⊿y
⊿x
⊿y
⊿x
y
出力
正解ラベル
“dog”
“cat”
“human”
“tiger”
“cat”
“dog”
“monkey”
“lion”
ロス関数
⊿y
error
42
ディープラーニングの学習の流れ
訓練データと検証データ
ディープラーニングの学習
 データを訓練データ(training data)と検証データ(validation data)に分割する
訓練データ(training data)
収集したデータ
重みの更新
(学習)に使用
検証データ(validation data)
汎化性能の
確認に使用
訓練データによる重みの更新
ディープラーニングの学習
訓練データをニューラルネットワークに与え、正解ラベルと出力結果の誤差が無くなるように重みWの
更新を繰り返す
訓練データ
正解は犬
猫
犬
検証データ
熊
狸
訓練データによる重みの更新
ディープラーニングの学習
訓練データをニューラルネットワークに与え、正解ラベルと出力結果の誤差が無くなるように重みWの
更新を繰り返す
訓練データ
正解に近づくように、各層の重みを更新する
猫
犬
検証データ
熊
狸
学習ループ
訓練データと検証データの役割
すべての訓練データを用いて重み更新を行う + すべての検証データで汎化性能を確認
⇒ 1 エポック(epoch)と呼ぶ
訓練データ
猫
犬
検証データ
熊
狸
検証データで
現在の汎化性能を確認
(重みの更新には使用しない)
学習時の性能の確認
訓練データと検証データの役割
各エポックで訓練データをニューラルネットワークに与えた際の間違い率と検証データを与えた際の間
違い率を確認しながら学習を進める必要がある
エラー数
エラー数
validation
学習失敗(過学習)
training
training
0
validation
学習成功
エポック
0
エポック
畳み込みニューラルネットワーク
50
畳込みニューラルネットワーク(CNN)
• 画像認識・画像分類で使われる、高い認識精度を誇るアルゴリズム。畳込み層で画像の特徴を学習
目的
顔認識
トレーニングデータ
1,000万~1億イメージ
ネットワークアーキテクチャ ラーニングアルゴリズム
10 層
30 エクサフロップスの計算量
10 億パラメータ
GPU を利用して30日
畳込み層
全結合層
51
畳込み層
0
0
0
ピクセル値
(src)
0
0
0
0
0
1
1
1
0
0
0
0
1
2
2
1
1
1
0
1
2
2
2
1
1
0
1
2
2
2
1
1
0
0
1
1
1
1
1
畳み込み
カーネル
0
0
カーネルの中心の値はソースピクセル
上に置かれている。
ソースピクセルはフィルタを自身の積
の値に更新される。
0
0
0
0
4
0
0
0
0
0
0
0
0
-4
-8
ピクセル値(dst)
52
まとめ
53
Appendix.
• NVIDIA Deep Learning Labs
• エヌビディアが提供するAWS上でのディープラーニング自主学習コース
• https://nvidia.qwiklab.com/tags/Deep%20Learning
• 書籍(日本語)
• 深層学習 (機械学習プロフェッショナルシリーズ)/岡谷貴之
• イラストで学ぶディープラーニング/山下 隆義
Thank you!
www.nvidia.com/dli
Fly UP