

Add to Cart
GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica
NVIDIA Amperio A30GPU del centro de datos
Inferencia de IA y computación convencional para todas las empresas
Lleve un rendimiento acelerado a cada carga de trabajo empresarial con las GPU NVIDIA A30 Tensor Core.Con la arquitectura NVIDIA Ampere Tensor Cores y Multi-Instance GPU (MIG), ofrece aceleraciones de forma segura en diversas cargas de trabajo, incluida la inferencia de IA a escala y aplicaciones informáticas de alto rendimiento (HPC).Al combinar un ancho de banda de memoria rápido y un bajo consumo de energía en un factor de forma PCIe, óptimo para servidores convencionales, A30 habilita un centro de datos elástico y ofrece el máximo valor para las empresas.
Especificaciones técnicas de la GPU del centro de datos NVIDIA A30
Arquitectura GPU | NVIDIA amperio |
FP64 | 5,2 teraFLOPS |
Núcleo tensor FP64 | 10,3 teraFLOPS |
FP32 | 10,3 teraFLOPS |
Núcleo tensor TF32 | 82 teraFLOPS |165 teraFLOPS* |
Núcleo tensor BFLOAT16 | 165 teraFLOPS |330 teraFLOPS* |
Núcleo tensor FP16 | 165 teraFLOPS |330 teraFLOPS* |
Núcleo tensor INT8 | 330 TOPS |661 TOPS* |
Núcleo tensor INT4 | 661 PARTES SUPERIORES |1321 TOPS* |
Motores de medios | 1 acelerador de flujo óptico (OFA) |
memoria GPU | 24GB HBM2 |
Ancho de banda de memoria GPU | 933 GB/s |
Interconectar | PCIe Gen4: 64 GB/s |
Potencia máxima de diseño térmico (TDP) | 165W |
Factor de forma | Doble ranura, altura completa, longitud completa (FHFL) |
GPU de múltiples instancias (MIG) | 4 instancias de GPU de 6 GB cada una |
Soporte de software de GPU virtual (vGPU) | NVIDIA AI Enterprise para VMware |
Los científicos de datos deben poder analizar, visualizar y convertir conjuntos de datos masivos en información.Pero las soluciones de escalamiento horizontal a menudo se ven atascadas por conjuntos de datos dispersos en varios servidores.
Los servidores acelerados con A30 brindan la potencia informática necesaria, junto con una gran memoria HBM2, 933 GB/s de ancho de banda de memoria y escalabilidad con NVLink, para hacer frente a estas cargas de trabajo.En combinación con NVIDIA InfiniBand, NVIDIA Magnum IO y el conjunto de bibliotecas de código abierto RAPIDS™, incluido RAPIDS Accelerator para Apache Spark, la plataforma del centro de datos de NVIDIA acelera estas enormes cargas de trabajo a niveles de rendimiento y eficiencia sin precedentes.