GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica

Número de modelo:NVIDIA A30
Lugar de origen:CHINA
Cantidad mínima de pedido:PC 1
Términos de pago:LC, D/A, D/P, T/T
Capacidad de suministro:20 piezas
El tiempo de entrega:15-30 días de palabra
Contacta

Add to Cart

Evaluación de proveedor
Beijing Beijing China
Dirección: D1205, edificio de Jinyu Jiahua, 3ro calle de Shangdi, distrito de Haidian, Pekín 100085, P.R.China
Proveedor Último login veces: Dentro de 25 Horas
Detalles del producto Perfil de la compañía
Detalles del producto

GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica

NVIDIA A30GPU del centro de datos

NVIDIA Amperio A30GPU del centro de datos

Aceleración informática versátil para servidores empresariales convencionales.

Inferencia de IA y computación convencional para todas las empresas


Lleve un rendimiento acelerado a cada carga de trabajo empresarial con las GPU NVIDIA A30 Tensor Core.Con la arquitectura NVIDIA Ampere Tensor Cores y Multi-Instance GPU (MIG), ofrece aceleraciones de forma segura en diversas cargas de trabajo, incluida la inferencia de IA a escala y aplicaciones informáticas de alto rendimiento (HPC).Al combinar un ancho de banda de memoria rápido y un bajo consumo de energía en un factor de forma PCIe, óptimo para servidores convencionales, A30 habilita un centro de datos elástico y ofrece el máximo valor para las empresas.



Especificaciones técnicas de la GPU del centro de datos NVIDIA A30


Arquitectura GPU

NVIDIA amperio

FP64

5,2 teraFLOPS

Núcleo tensor FP64

10,3 teraFLOPS

FP32

10,3 teraFLOPS

Núcleo tensor TF32

82 teraFLOPS |165 teraFLOPS*

Núcleo tensor BFLOAT16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor FP16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor INT8

330 TOPS |661 TOPS*

Núcleo tensor INT4

661 PARTES SUPERIORES |1321 TOPS*

Motores de medios

1 acelerador de flujo óptico (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)

memoria GPU

24GB HBM2

Ancho de banda de memoria GPU

933 GB/s

Interconectar

PCIe Gen4: 64 GB/s

Potencia máxima de diseño térmico (TDP)

165W

Factor de forma

Doble ranura, altura completa, longitud completa (FHFL)

GPU de múltiples instancias (MIG)

4 instancias de GPU de 6 GB cada una
2 instancias de GPU de 12 GB cada una
1 instancia de GPU @ 24GB

Soporte de software de GPU virtual (vGPU)

NVIDIA AI Enterprise para VMware
Servidor de computación virtual NVIDIA



Computación de alto rendimiento

Los científicos de datos deben poder analizar, visualizar y convertir conjuntos de datos masivos en información.Pero las soluciones de escalamiento horizontal a menudo se ven atascadas por conjuntos de datos dispersos en varios servidores.


Los servidores acelerados con A30 brindan la potencia informática necesaria, junto con una gran memoria HBM2, 933 GB/s de ancho de banda de memoria y escalabilidad con NVLink, para hacer frente a estas cargas de trabajo.En combinación con NVIDIA InfiniBand, NVIDIA Magnum IO y el conjunto de bibliotecas de código abierto RAPIDS™, incluido RAPIDS Accelerator para Apache Spark, la plataforma del centro de datos de NVIDIA acelera estas enormes cargas de trabajo a niveles de rendimiento y eficiencia sin precedentes.



China GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica supplier

GPU del centro de datos del amperio de Nvidia A30 24GB de la memoria HBM2 para la computación científica

Carro de la investigación 0