「Tensorコア」の版間の差分

提供: MonoBook
ナビゲーションに移動 検索に移動
 
(同じ利用者による、間の2版が非表示)
1行目: 1行目:
 
'''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]]に搭載された専用ハードウェアユニットです。
 
'''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]]に搭載された専用ハードウェアユニットです。
  
通常の[[CUDAコア]]から[[深層学習]]では使われない余計な機能をバッサリ切り落としたもので、[[行列演算]][[テンソル演算]]を高速に実行することができます。[[深層学習]]においては[[行列演算]]が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。
+
通常の[[CUDAコア]]から[[深層学習]]では使われない余計な機能をバッサリ切り落とし、[[行列演算]](とくに[[行列]]の乗算)を高速に実行することに特化させたものです。
 +
 
 +
[[深層学習]]においては[[行列演算]]が頻繁に行われるため、特に大規模な[[ニューラルネットワーク]]を使用する場合に効果的であり、高速な学習を実現することができます。一方で[[ゲーム]]では行列演算は[[頂点シェーダー]]で使われるくらいなのであまり高速化は望めません。
  
 
Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。
 
Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。
  
 
Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。
 
Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。

2023年5月15日 (月) 05:23時点における最新版

Tensorコアとは、NVIDIAが開発した高速な深層学習演算を実行するためのGPUに搭載された専用ハードウェアユニットです。

通常のCUDAコアから深層学習では使われない余計な機能をバッサリ切り落とし、行列演算(とくに行列の乗算)を高速に実行することに特化させたものです。

深層学習においては行列演算が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。一方でゲームでは行列演算は頂点シェーダーで使われるくらいなのであまり高速化は望めません。

Tensorコアは、NVIDIAのVoltaアーキテクチャ以降のGPUに搭載されています。

Tensorコアは、TensorFlowPyTorchMXNetなどのライブラリに統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。