「Bfloat16」を編集中
ナビゲーションに移動
検索に移動
この編集を取り消せます。 下記の差分を確認して、本当に取り消していいか検証してください。よろしければ変更を保存して取り消しを完了してください。
最新版 | 編集中の文章 | ||
1行目: | 1行目: | ||
{{小文字}} | {{小文字}} | ||
− | '''bfloat16''' (brain floating point、BF16) | + | '''bfloat16''' (brain floating point、BF16)とは、浮動小数点を16ビット長で表す形式のひとつである。 |
− | [[Google]]が[[TensorFlow]] | + | [[Google]]が[[TensorFlow]]向けに開発しているもの。 |
− | BF16は「単純に[[FP32]] | + | BF16は「単純に[[FP32]]の仮数部を切り詰めた」というものである。 |
+ | 汎用的な[[FP16]]に対して「BF16はFP32と高速変換できる」のが利点であり、FP32との変換が頻繁に発生する用途(主に[[人工知能]])向けだと言われている。 | ||
{| class="wikitable" style="text-align:center; border-width:0;" | {| class="wikitable" style="text-align:center; border-width:0;" |