「TF32」を編集中

ナビゲーションに移動 検索に移動

警告: ログインしていません。編集を行うと、あなたの IP アドレスが公開されます。ログインまたはアカウントを作成すれば、あなたの編集はその利用者名とともに表示されるほか、その他の利点もあります。

この編集を取り消せます。 下記の差分を確認して、本当に取り消していいか検証してください。よろしければ変更を保存して取り消しを完了してください。

最新版 編集中の文章
1行目: 1行目:
 
'''TF32'''とは、[[NVIDIA]]が策定した19ビット長の[[単精度浮動小数点数]]です。
 
'''TF32'''とは、[[NVIDIA]]が策定した19ビット長の[[単精度浮動小数点数]]です。
 
TF32形式は同社の[[Ampereアーキテクチャ]]([[GeForce RTX 30シリーズ]])の[[GPU]]から導入されました。
 
最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。
 
  
 
名称に「32」と付いているので32ビット長と勘違いしやすい点に注意する必要があります。
 
名称に「32」と付いているので32ビット長と勘違いしやすい点に注意する必要があります。
紛らわしいことに、この「32」は[[パソコン]]での[[プログラミング]]で古くから利用されている「[[FP32]](32ビットのfloat型)と[[互換性]]がある」という意味です。
+
紛らわしいことに、この「32」は[[パソコン]]での[[プログラミング]]で古くから利用されている「[[FP32]](32ビットのfloat型)と[[互換性]]がある」という意味です。
  
 
TF32はFP32と同じく仮数部に10ビットを採用しており「FP32と同等の数値範囲を表現できる」という特徴があります。
 
TF32はFP32と同じく仮数部に10ビットを採用しており「FP32と同等の数値範囲を表現できる」という特徴があります。
  
[[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。
+
[[Google]]が[[TensorFlow]]向けに開発した「[[BF16]]」と非常に似ています。なぜ新しくTF32を作ったのかが謎すぎるくらいです。
[[Ampereアーキテクチャ]]ではTF32と同時にBF16にも対応したので、なぜ新しくTF32を作ったのかが謎です。
 
  
[[category: 人工知能]]
+
TF32形式は同社のAmpereアーキテクチャのGPUに導入されました。
 +
最近では一部の[[ARM]]系[[SoC]]もTF32に対応しており、それらでは[[推論]]が若干高速化されます。

MonoBookへの投稿はすべて、他の投稿者によって編集、変更、除去される場合があります。 自分が書いたものが他の人に容赦なく編集されるのを望まない場合は、ここに投稿しないでください。
また、投稿するのは、自分で書いたものか、パブリック ドメインまたはそれに類するフリーな資料からの複製であることを約束してください(詳細はMonoBook:著作権を参照)。 著作権保護されている作品は、許諾なしに投稿しないでください!

このページを編集するには、下記の確認用の質問に回答してください (詳細):

取り消し 編集の仕方 (新しいウィンドウで開きます)