メインメニューを開く

差分

ソフトマックス関数

41 バイト追加, 2022年9月13日 (火) 01:47
編集の要約なし
[[ニューラルネットワーク]]の最後の[[活性化関数]]として、[[ルースの選択公理]]に基づいて、ネットワークの出力を予測される出力クラスに対する確率分布に正規化するためによく使われる。
数式
:<math>\sigma(\mathbf{z})_i = \frac{e^{z_i}}{\sum_{j=1}^K e^{z_j}} </math>
C# で書くとこんな感じ。
<source lang="csharp">
float[] softmax(float[] z)