差分

ナビゲーションに移動 検索に移動

ReLU関数

459 バイト追加, 2017年11月13日 (月) 05:30
ページの作成:「'''ReLU'''(英語: Rectified Linear Unit, 正規化線形関数)とは、人工知能用語のひとつで、隠れ層活性化関数のひとつ...」
'''ReLU'''([[英語]]: Rectified Linear Unit, 正規化線形関数)とは、[[人工知能]]用語のひとつで、[[隠れ層]]の[[活性化関数]]のひとつである。
「max(0, x)」で表される区分線形関数を使った1次スプライン曲線の線形補間である。
[[tanh]]や[[Softplus]]よりも良いとされる。

<!--
:<math>\varphi(x) = x_+ = \max(0, x)</math>
-->

[[category: 人工知能]]
[[category: 活性化関数]]
匿名利用者

案内メニュー