「Bfloat16」を編集中
ナビゲーションに移動
検索に移動
この編集を取り消せます。 下記の差分を確認して、本当に取り消していいか検証してください。よろしければ変更を保存して取り消しを完了してください。
最新版 | 編集中の文章 | ||
1行目: | 1行目: | ||
− | + | '''bfloat16''' (brain floating point、BF16)とは、浮動小数点を16ビット長で表す形式のひとつである。 | |
− | '''bfloat16''' (brain floating point、BF16) | ||
− | [[Google]]が[[TensorFlow]] | + | [[Google]]が[[TensorFlow]]向けに開発しているもの。 |
− | BF16は「単純に[[FP32]] | + | BF16は「単純に[[FP32]]の仮数部を切り詰めた」というものである。 |
+ | 汎用的な[[FP16]]に対して、BF16は「FP32から高速変換できる」のが利点で、出し入れの激しい[[人工知能]]向けだと言われている。 | ||
{| class="wikitable" style="text-align:center; border-width:0;" | {| class="wikitable" style="text-align:center; border-width:0;" | ||
54行目: | 54行目: | ||
|} | |} | ||
− | + | FP32からBF16への丸め処理は「FP32の仮数部の8ビット目が重要」となる。 | |
− | |||
==主なBF16をサポートする製品== | ==主なBF16をサポートする製品== | ||
+ | |||
*[[Intel]]の[[CPU]] ([[AVX-512]]対応製品の一部) | *[[Intel]]の[[CPU]] ([[AVX-512]]対応製品の一部) | ||
*[[NVIDIA]]の[[GPU]] ([[NVIDIA Ampere]]搭載品) | *[[NVIDIA]]の[[GPU]] ([[NVIDIA Ampere]]搭載品) | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− |