「ReLU関数」の版間の差分

提供: MonoBook
ナビゲーションに移動 検索に移動
imported>Administrator
(ページの作成:「'''ReLU'''(英語: Rectified Linear Unit, 正規化線形関数)とは、人工知能用語のひとつで、隠れ層活性化関数のひとつ...」)
 
imported>Administrator
8行目: 8行目:
  
 
[[category: 人工知能]]
 
[[category: 人工知能]]
 +
[[category: 機械学習]]
 
[[category: 活性化関数]]
 
[[category: 活性化関数]]

2017年11月14日 (火) 01:29時点における版

ReLU英語: Rectified Linear Unit, 正規化線形関数)とは、人工知能用語のひとつで、隠れ層活性化関数のひとつである。 「max(0, x)」で表される区分線形関数を使った1次スプライン曲線の線形補間である。 tanhSoftplusよりも良いとされる。