
Add to Cart
Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB
Para desbloquear los descubrimientos de próxima generación, los científicos buscan simulaciones para comprender mejor el mundo que nos rodea.
NVIDIA Tesla A100 presenta Tensor Cores de doble precisión para ofrecer el mayor salto en el rendimiento de HPC desde la introducción de las GPU.En combinación con 80 GB de la memoria GPU más rápida, los investigadores pueden reducir una simulación de doble precisión de 10 horas a menos de cuatro horas en NVIDIA Tesla A100.Las aplicaciones HPC también pueden aprovechar TF32 para lograr un rendimiento hasta 11 veces mayor para operaciones de multiplicación de matrices densas de precisión simple.
Para las aplicaciones de HPC con los conjuntos de datos más grandes, la memoria adicional de A100 de 80 GB brinda un aumento de rendimiento de hasta 2X con Quantum Espresso, una simulación de materiales.Esta memoria masiva y el ancho de banda de memoria sin precedentes hacen que el A100 de 80 GB sea la plataforma ideal para las cargas de trabajo de próxima generación.
A100 presenta características innovadoras para optimizar las cargas de trabajo de inferencia.Acelera una gama completa de precisión, desde FP32 hasta INT4.La tecnología GPU de múltiples instancias (MIG) permite que múltiples redes operen simultáneamente en un solo A100 para una utilización óptima de los recursos informáticos.Y el soporte de escasez estructural ofrece hasta 2 veces más rendimiento además de otras ganancias de rendimiento de inferencia de A100.
En modelos de inteligencia artificial conversacional de última generación como BERT, A100 acelera el rendimiento de inferencia hasta 249 veces más que las CPU.
En los modelos más complejos que tienen un tamaño de lote limitado como RNN-T para el reconocimiento de voz automático, la mayor capacidad de memoria del A100 de 80 GB duplica el tamaño de cada MIG y ofrece un rendimiento hasta 1,25 veces superior al del A100 de 40 GB.
El rendimiento líder en el mercado de NVIDIA se demostró en MLPerf Inference.A100 brinda 20 veces más rendimiento para extender aún más ese liderazgo.
NVIDIA A100 para PCIe | |
Arquitectura GPU |
NVIDIA amperio |
Pico FP64 | 9.7 TF |
Núcleo de tensor Peak FP64 | 19.5TF |
Pico FP32 | 19.5TF |
Núcleo de tensor Peak TF32 | 156 TF |312TF* |
Pico BFLOAT16 Tensor Core | 312 TF |624TF* |
Núcleo de tensor Peak FP16 | 312 TF |624TF* |
Núcleo de tensor Peak INT8 | 624 PARTES SUPERIORES |1,248 TOPS* |
Núcleo de tensor Peak INT4 | 1,248 PARTES SUPERIORES |2,496 TOPS* |
Memoria GPU | 40 GB |
Ancho de banda de memoria GPU | 1555 GB/s |
Interconectar | PCIe Gen4 64 GB/s |
GPU de múltiples instancias | Varios tamaños de instancia con hasta 7MIG a 5 GB |
Factor de forma | PCIe |
Potencia máxima de TDP |
250W |
Rendimiento entregado de las principales aplicaciones |
90% |
A100 con MIG maximiza la utilización de la infraestructura acelerada por GPU.Con MIG, una GPU A100 se puede dividir en hasta siete instancias independientes, lo que brinda a varios usuarios acceso a la aceleración de la GPU.Con A100 de 40 GB, cada instancia MIG se puede asignar hasta 5 GB, y con la mayor capacidad de memoria de A100 de 80 GB, ese tamaño se duplica a 10 GB.
MIG funciona con Kubernetes, contenedores y virtualización de servidores basada en hipervisor.MIG permite a los administradores de infraestructura ofrecer una GPU del tamaño adecuado con calidad de servicio (QoS) garantizada para cada trabajo, lo que amplía el alcance de los recursos informáticos acelerados para todos los usuarios.