「TF32」の版間の差分
ナビゲーションに移動
検索に移動
Administrator (トーク | 投稿記録) |
Administrator (トーク | 投稿記録) |
||
8行目: | 8行目: | ||
[[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。 | [[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。 | ||
− | + | TF32形式は同社の[[Ampereアーキテクチャ]]([[GeForce RTX 30シリーズ]])の[[GPU]]から導入されました。 | |
最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。 | 最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。 |
2023年8月16日 (水) 03:56時点における版
TF32とは、NVIDIAが策定した19ビット長の単精度浮動小数点数です。
名称に「32」と付いているので32ビット長と勘違いしやすい点に注意する必要があります。 紛らわしいことに、この「32」はパソコンでのプログラミングで古くから利用されている「FP32(32ビットのfloat型)と互換性がある」という意味です。
TF32はFP32と同じく仮数部に10ビットを採用しており「FP32と同等の数値範囲を表現できる」という特徴があります。
GoogleがTensorFlow向けに開発した「BF16」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。
TF32形式は同社のAmpereアーキテクチャ(GeForce RTX 30シリーズ)のGPUから導入されました。 最近では一部のARM系SoCもTF32に対応しており、それらでは推論が若干高速化されます。