メインメニューを開く

差分

活性化関数

28 バイト追加, 2017年11月14日 (火) 01:29
編集の要約なし
「[[多層パーセプトロン]](いわゆる最近流行りの[[機械学習]]の[[ニューラルネットワーク]])」の活性化関数では「[[シグモイド関数]]」「[[ReLU関数]]」「[[恒等関数]]」「[[ソフトマックス関数]]」などの[[非線形関数]]が使われる。
[[file:ReLU関数.png|none|ReLU関数の例]]
 
[[category: 機械学習]]
匿名利用者