差分
ReLU関数
,'''ReLU'''([[英語]]: Rectified Linear Unit, 正規化線形関数)とは、[[人工知能]]用語のひとつで、[[隠れ層]]の[[活性化関数]]のひとつである。
「max(0, x)」で表される区分線形関数を使った1次スプライン曲線の線形補間である。
[[tanh]]や[[Softplus]]よりも良いとされる。
<!--
:<math>\varphi(x) = x_+ = \max(0, x)</math>
-->
[[category: 人工知能]]
[[category: 活性化関数]]
「max(0, x)」で表される区分線形関数を使った1次スプライン曲線の線形補間である。
[[tanh]]や[[Softplus]]よりも良いとされる。
<!--
:<math>\varphi(x) = x_+ = \max(0, x)</math>
-->
[[category: 人工知能]]
[[category: 活性化関数]]