「TF32」の版間の差分

提供: MonoBook
ナビゲーションに移動 検索に移動
(ページの作成:「'''TF32'''とは、NVIDIAが策定した19ビット長の単精度浮動小数点数です。 名称に「32」と付いているので32ビット長と勘違い…」)
 
8行目: 8行目:
 
[[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。
 
[[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。
  
TF32形式は同社のAmpereアーキテクチャのGPUに導入されました。
+
TF32形式は同社の[[Ampereアーキテクチャ]]([[GeForce RTX 30シリーズ]])の[[GPU]]から導入されました。
 
最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。
 
最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。

2023年8月16日 (水) 03:56時点における版

TF32とは、NVIDIAが策定した19ビット長の単精度浮動小数点数です。

名称に「32」と付いているので32ビット長と勘違いしやすい点に注意する必要があります。 紛らわしいことに、この「32」はパソコンでのプログラミングで古くから利用されている「FP32(32ビットのfloat型)と互換性がある」という意味です。

TF32はFP32と同じく仮数部に10ビットを採用しており「FP32と同等の数値範囲を表現できる」という特徴があります。

GoogleTensorFlow向けに開発した「BF16」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。

TF32形式は同社のAmpereアーキテクチャGeForce RTX 30シリーズ)のGPUから導入されました。 最近では一部のARMSoCもTF32に対応しており、それらでは推論が若干高速化されます。