「Tensorコア」の版間の差分
ナビゲーションに移動
検索に移動
Administrator (トーク | 投稿記録) |
Administrator (トーク | 投稿記録) |
||
1行目: | 1行目: | ||
− | '''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]] | + | '''Tensorコア'''とは、[[NVIDIA]]が開発した高速な[[深層学習]]演算を実行するための[[GPU]]に搭載された専用ハードウェアユニットです。 |
− | + | 通常の[[CUDAコア]]から[[深層学習]]では使われない余計な機能をバッサリ切り落としたもので、[[行列演算]]や[[テンソル演算]]を高速に実行することができます。[[深層学習]]においては[[行列演算]]が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。 | |
Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。 | Tensorコアは、NVIDIAの[[Voltaアーキテクチャ]]以降の[[GPU]]に搭載されています。 | ||
Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。 | Tensorコアは、[[TensorFlow]]、[[PyTorch]]、[[MXNet]]などの[[ライブラリ]]に統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。 |
2023年4月17日 (月) 02:33時点における版
Tensorコアとは、NVIDIAが開発した高速な深層学習演算を実行するためのGPUに搭載された専用ハードウェアユニットです。
通常のCUDAコアから深層学習では使われない余計な機能をバッサリ切り落としたもので、行列演算やテンソル演算を高速に実行することができます。深層学習においては行列演算が頻繁に行われるため、特に大規模なニューラルネットワークを使用する場合に効果的であり、高速な学習を実現することができます。
Tensorコアは、NVIDIAのVoltaアーキテクチャ以降のGPUに搭載されています。
Tensorコアは、TensorFlow、PyTorch、MXNetなどのライブラリに統合されており、比較的簡単に高速な深層学習アプリケーションを開発することができます。