ReLU関数

提供: MonoBook
2017年11月14日 (火) 10:30時点におけるAdministrator (トーク | 投稿記録)による版

(差分) ←前の版 | 最新版 (差分) | 次の版→ (差分)
移動: 案内検索

ReLU英語: Rectified Linear Unit, 正規化線形関数)とは、人工知能用語のひとつで、隠れ層活性化関数のひとつである。 「max(0, x)」で表される区分線形関数を使った1次スプライン曲線の線形補間である。 tanhSoftplusよりも良いとされる。