「活性化関数」の版間の差分

提供: MonoBook
ナビゲーションに移動 検索に移動
imported>Administrator
(ページの作成:「'''活性化関数'''(かっせいかかんすう)とは、入力信号の総和がどのように活性化するか(発火するか)を決定する役割を...」)
 
imported>Administrator
7行目: 7行目:
 
「[[多層パーセプトロン]](いわゆる最近流行りの[[機械学習]]の[[ニューラルネットワーク]])」の活性化関数では「[[シグモイド関数]]」「[[ReLU関数]]」「[[恒等関数]]」「[[ソフトマックス関数]]」などの[[非線形関数]]が使われる。
 
「[[多層パーセプトロン]](いわゆる最近流行りの[[機械学習]]の[[ニューラルネットワーク]])」の活性化関数では「[[シグモイド関数]]」「[[ReLU関数]]」「[[恒等関数]]」「[[ソフトマックス関数]]」などの[[非線形関数]]が使われる。
 
[[file:ReLU関数.png|none|ReLU関数の例]]
 
[[file:ReLU関数.png|none|ReLU関数の例]]
 +
 +
[[category: 機械学習]]

2017年11月14日 (火) 01:29時点における版

活性化関数(かっせいかかんすう)とは、入力信号の総和がどのように活性化するか(発火するか)を決定する役割を持つ。 超大雑把にいえば、ニューロン(の樹状突起)から受け取った複数の入力信号を、火力を表す1つのスプライングラフ(折れ線グラフ)状に変換し、次のニューロンに受け渡す役割をする。

単純パーセプトロン配列を入力に受け取り0か1の数字を返す単純なニューラルネットワーク)」の活性化関数では「ステップ関数」などの線形関数が使われる。

ステップ関数の例

多層パーセプトロン(いわゆる最近流行りの機械学習ニューラルネットワーク)」の活性化関数では「シグモイド関数」「ReLU関数」「恒等関数」「ソフトマックス関数」などの非線形関数が使われる。

ReLU関数の例