差分
ナビゲーションに移動
検索に移動
← 古い編集
新しい編集 →
活性化関数
28 バイト追加
,
2017年11月14日 (火) 01:29
編集の要約なし
「[[多層パーセプトロン]](いわゆる最近流行りの[[機械学習]]の[[ニューラルネットワーク]])」の活性化関数では「[[シグモイド関数]]」「[[ReLU関数]]」「[[恒等関数]]」「[[ソフトマックス関数]]」などの[[非線形関数]]が使われる。
[[file:ReLU関数.png|none|ReLU関数の例]]
[[category: 機械学習]]
匿名利用者
imported>Administrator
案内メニュー
個人用ツール
ログインしていません
トーク
投稿記録
アカウント作成
ログイン
名前空間
ページ
議論
変種
表示
閲覧
編集
ソースを編集
履歴表示
その他
検索
案内
メインページ
最近の更新
未作成ページ
おまかせ表示
ヘルプ
ツール
特別ページ
印刷用バージョン