メインメニューを開く

差分

ソフトマックス関数

483 バイト追加, 2022年9月13日 (火) 01:46
編集の要約なし
[[ニューラルネットワーク]]の最後の[[活性化関数]]として、[[ルースの選択公理]]に基づいて、ネットワークの出力を予測される出力クラスに対する確率分布に正規化するためによく使われる。
 
:<math>\sigma(\mathbf{z})_i = \frac{e^{z_i}}{\sum_{j=1}^K e^{z_j}} </math>
 
<source lang="csharp">
float[] softmax(float[] z)
{
var exp = z.Select(System.MathF.Exp);
var sum_exp = exp.Sum();
var ret = exp.Select(j => j / sum_exp);
return ret.ToArray();
}
 
// test
var a = new[] { 1.0f, 2.0f, 3.0f, 4.0f, 1.0f, 2.0f, 3.0f };
var b = softmax(a);
Console.WriteLine(String.Join(", ", b));
 
</source>
 
== 関連項目 ==
* [[シグモイド関数]]
 
[[category: 算数]]