メインメニューを開く
MonoBook
検索
差分
← 古い編集
Bfloat16
313 バイト追加
,
2023年10月2日 (月) 01:49
編集の要約なし
{{小文字}}
'''bfloat16''' (brain floating point、BF16)
とは、浮動小数点を16ビット長で表す形式のひとつである。
とは、[[浮動小数点]]を16ビット長で表す形式のひとつです。
[[Google]]が[[TensorFlow]]
向けに開発しているもの。
向けに[[開発]]したものです。
BF16は「単純に[[FP32]]
の仮数部を切り詰めた」というものである。
汎用的な
の仮数部を切り詰めた」という[[仕様]]になっています。汎用的な「
[[FP16]]
に対して、BF16は「FP32から高速変換できる」のが利点で、出し入れの激しい
」に対して「BF16はFP32と高速変換できる」のが利点であり、FP32との変換が頻繁に発生する用途(主に
[[人工知能]]
向けだと言われている。
)向けだと言われています。
{| class="wikitable" style="text-align:center; border-width:0;"
|}
FP32からBF16への丸め処理の発動条件は
* FP32の仮数部の「7ビット目が0」かつ「8ビット目が1」
==主なBF16をサポートする製品==
*[[Intel]]の[[CPU]] ([[AVX-512]]対応製品の一部)
*[[NVIDIA]]の[[GPU]] ([[NVIDIA Ampere]]搭載品)
== 関連項目 ==
* [[半精度浮動小数点数]]
* [[binary16]]
* [[bfloat16]]
[[category: 人工知能]]
Administrator
ビューロクラット
、
インターフェース管理者
、
管理者
8,496
回編集