メインメニューを開く
MonoBook
検索
差分
← 古い編集
活性化関数
85 バイト追加
,
2017年11月14日 (火) 01:29
編集の要約なし
「[[多層パーセプトロン]](いわゆる最近流行りの[[機械学習]]の[[ニューラルネットワーク]])」の活性化関数では「[[シグモイド関数]]」「[[ReLU関数]]」「[[恒等関数]]」「[[ソフトマックス関数]]」などの[[非線形関数]]が使われる。
[[file:ReLU関数.png|none|ReLU関数の例]]
[[category: 人工知能]]
[[category: 機械学習]]
[[category: 活性化関数]]
匿名利用者
imported>Administrator