メインメニューを開く
MonoBook
検索
差分
← 古い編集
Bfloat16
57 バイト追加
,
2023年10月2日 (月) 01:49
編集の要約なし
{{小文字}}
'''bfloat16''' (brain floating point、BF16)
とは、浮動小数点を16ビット長で表す形式のひとつである。
とは、[[浮動小数点]]を16ビット長で表す形式のひとつです。
[[Google]]が[[TensorFlow]]
向けに開発しているもの。
向けに[[開発]]したものです。
BF16は「単純に[[FP32]]
の仮数部を切り詰めた」というものである。
汎用的な
の仮数部を切り詰めた」という[[仕様]]になっています。汎用的な「
[[FP16]]
に対して「BF16はFP32と高速変換できる」のが利点であり、FP32との変換が頻繁に発生する用途(主に
」に対して「BF16はFP32と高速変換できる」のが利点であり、FP32との変換が頻繁に発生する用途(主に
[[人工知能]]
)向けだと言われている。
)向けだと言われています。
{| class="wikitable" style="text-align:center; border-width:0;"
* [[binary16]]
* [[bfloat16]]
[[category: 人工知能]]
Administrator
ビューロクラット
、
インターフェース管理者
、
管理者
8,249
回編集