Tecnología Co., Ltd de Pekín Plink AI

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Miembro activo
3 Años
Casa / Productos / Nvidia GPU Server /

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

Contacta
Tecnología Co., Ltd de Pekín Plink AI
Ciudad:beijing
Provincia / Estado:beijing
País/Región:china
Persona de contacto:MsCindy
Contacta

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

Preguntar último precio
Número de modelo :NVIDIA A100
Lugar de origen :CHINA
Cantidad mínima de pedido :PC 1
Términos de pago :LC, D/A, D/P, T/T
Capacidad de suministro :20 piezas
El tiempo de entrega :15-30 días de palabra
detalles del empaque :Ranura única de 4.4" H x 7.9" L
NOMBRE :Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB
Palabra clave :Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB
Modelo :NVIDIA A100
Arquitectura GPU :NVIDIA amperio
Pico BFLOAT16 Tensor Core :312 TF | 624TF*
Núcleo de tensor Peak FP16 :312 TF | 624TF*
Núcleo de tensor Peak INT8 :624 PARTES SUPERIORES | 1,248 TOPS*
Núcleo de tensor Peak INT4 :1,248 PARTES SUPERIORES | 2,496 TOPS*
memoria GPU :40 GB
Ancho de banda de memoria GPU :1555 GB/s
Factor de forma :PCIe
more
Contacta

Add to Cart

Buscar vídeos similares
Ver descripción del producto

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

GPU NVIDIA para computación científica

GPUTesla A100

Computación de alto rendimiento

Para desbloquear los descubrimientos de próxima generación, los científicos buscan simulaciones para comprender mejor el mundo que nos rodea.

NVIDIA Tesla A100 presenta Tensor Cores de doble precisión para ofrecer el mayor salto en el rendimiento de HPC desde la introducción de las GPU.En combinación con 80 GB de la memoria GPU más rápida, los investigadores pueden reducir una simulación de doble precisión de 10 horas a menos de cuatro horas en NVIDIA Tesla A100.Las aplicaciones HPC también pueden aprovechar TF32 para lograr un rendimiento hasta 11 veces mayor para operaciones de multiplicación de matrices densas de precisión simple.

Para las aplicaciones de HPC con los conjuntos de datos más grandes, la memoria adicional de A100 de 80 GB brinda un aumento de rendimiento de hasta 2X con Quantum Espresso, una simulación de materiales.Esta memoria masiva y el ancho de banda de memoria sin precedentes hacen que el A100 de 80 GB sea la plataforma ideal para las cargas de trabajo de próxima generación.

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

Inferencia de aprendizaje profundo

A100 presenta características innovadoras para optimizar las cargas de trabajo de inferencia.Acelera una gama completa de precisión, desde FP32 hasta INT4.La tecnología GPU de múltiples instancias (MIG) permite que múltiples redes operen simultáneamente en un solo A100 para una utilización óptima de los recursos informáticos.Y el soporte de escasez estructural ofrece hasta 2 veces más rendimiento además de otras ganancias de rendimiento de inferencia de A100.

En modelos de inteligencia artificial conversacional de última generación como BERT, A100 acelera el rendimiento de inferencia hasta 249 veces más que las CPU.

En los modelos más complejos que tienen un tamaño de lote limitado como RNN-T para el reconocimiento de voz automático, la mayor capacidad de memoria del A100 de 80 GB duplica el tamaño de cada MIG y ofrece un rendimiento hasta 1,25 veces superior al del A100 de 40 GB.

El rendimiento líder en el mercado de NVIDIA se demostró en MLPerf Inference.A100 brinda 20 veces más rendimiento para extender aún más ese liderazgo.

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

Especificaciones técnicas de NVIDIA Tesla A100

NVIDIA A100 para PCIe
Arquitectura GPU

NVIDIA amperio

Pico FP64 9.7 TF
Núcleo de tensor Peak FP64 19.5TF
Pico FP32 19.5TF
Núcleo de tensor Peak TF32 156 TF |312TF*
Pico BFLOAT16 Tensor Core 312 TF |624TF*
Núcleo de tensor Peak FP16 312 TF |624TF*
Núcleo de tensor Peak INT8 624 PARTES SUPERIORES |1,248 TOPS*
Núcleo de tensor Peak INT4 1,248 PARTES SUPERIORES |2,496 TOPS*
Memoria GPU 40 GB
Ancho de banda de memoria GPU 1555 GB/s
Interconectar PCIe Gen4 64 GB/s
GPU de múltiples instancias Varios tamaños de instancia con hasta 7MIG a 5 GB
Factor de forma PCIe

Potencia máxima de TDP

250W

Rendimiento entregado de las principales aplicaciones

90%

Utilización lista para la empresa

A100 con MIG maximiza la utilización de la infraestructura acelerada por GPU.Con MIG, una GPU A100 se puede dividir en hasta siete instancias independientes, lo que brinda a varios usuarios acceso a la aceleración de la GPU.Con A100 de 40 GB, cada instancia MIG se puede asignar hasta 5 GB, y con la mayor capacidad de memoria de A100 de 80 GB, ese tamaño se duplica a 10 GB.

MIG funciona con Kubernetes, contenedores y virtualización de servidores basada en hipervisor.MIG permite a los administradores de infraestructura ofrecer una GPU del tamaño adecuado con calidad de servicio (QoS) garantizada para cada trabajo, lo que amplía el alcance de los recursos informáticos acelerados para todos los usuarios.

Tarjeta gráfica para estación de trabajo NVIDIA Scientific GPU Tesla A100 de 40 GB

Carro de la investigación 0