「Tensorコア」の版間の差分

提供: MonoBook
ナビゲーションに移動 検索に移動
1行目: 1行目:
 
'''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]]に搭載された専用ハードウェアユニットです。
 
'''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]]に搭載された専用ハードウェアユニットです。
  
通常の[[CUDAコア]]から[[深層学習]]では使われない余計な機能をバッサリ切り落としたもので、[[行列演算]](行列の乗算)や[[テンソル演算]]を高速に実行することができます。[[深層学習]]においては[[行列演算]]が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。
+
通常の[[CUDAコア]]から[[深層学習]]では使われない余計な機能をバッサリ切り落としたもので、[[行列演算]](とくに行列の乗算)や[[テンソル演算]]を高速に実行することができます。[[深層学習]]においては[[行列演算]]が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。
  
 
Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。
 
Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。
  
 
Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。
 
Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。

2023年4月17日 (月) 02:35時点における版

Tensorコアとは、NVIDIAが開発した高速な深層学習演算を実行するためのGPUに搭載された専用ハードウェアユニットです。

通常のCUDAコアから深層学習では使われない余計な機能をバッサリ切り落としたもので、行列演算(とくに行列の乗算)やテンソル演算を高速に実行することができます。深層学習においては行列演算が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。

Tensorコアは、NVIDIAのVoltaアーキテクチャ以降のGPUに搭載されています。

Tensorコアは、TensorFlowPyTorchMXNetなどのライブラリに統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。