差分

ナビゲーションに移動 検索に移動

Bfloat16

313 バイト追加, 2023年10月2日 (月) 01:49
編集の要約なし
{{小文字}}'''bfloat16''' (brain floating point、BF16)とは、浮動小数点を16ビット長で表す形式のひとつである。とは、[[浮動小数点]]を16ビット長で表す形式のひとつです。
[[Google]]が[[TensorFlow]]向けに開発しているもの。向けに[[開発]]したものです。
BF16は「単純に[[FP32]]の仮数部を切り詰めた」というものである。汎用的なの仮数部を切り詰めた」という[[仕様]]になっています。汎用的な「[[FP16]]に対して、BF16は「FP32から高速変換できる」のが利点で、出し入れの激しい」に対して「BF16はFP32と高速変換できる」のが利点であり、FP32との変換が頻繁に発生する用途(主に[[人工知能]]向けだと言われている。)向けだと言われています。
{| class="wikitable" style="text-align:center; border-width:0;"
|}
FP32からBF16への丸め処理の発動条件は
* FP32の仮数部の「7ビット目が0」かつ「8ビット目が1」
==主なBF16をサポートする製品==
 
*[[Intel]]の[[CPU]] ([[AVX-512]]対応製品の一部)
*[[NVIDIA]]の[[GPU]] ([[NVIDIA Ampere]]搭載品)
 
== 関連項目 ==
* [[半精度浮動小数点数]]
* [[binary16]]
* [[bfloat16]]
 
[[category: 人工知能]]

案内メニュー