Tecnología Co., Ltd de Pekín Plink AI

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
Miembro activo
3 Años
Casa / Productos / Nvidia GPU Server /

Informática profesional Solución de centro de datos GPU Nvidia Ampere A30

Contacta
Tecnología Co., Ltd de Pekín Plink AI
Ciudad:beijing
Provincia / Estado:beijing
País/Región:china
Persona de contacto:MsCindy
Contacta

Informática profesional Solución de centro de datos GPU Nvidia Ampere A30

Preguntar último precio
Número de modelo :NVIDIA A30
Lugar de origen :CHINA
Cantidad mínima de pedido :PC 1
Términos de pago :LC, D/A, D/P, T/T
Capacidad de suministro :20 piezas
El tiempo de entrega :15-30 días de palabra
detalles del empaque :Ranura única de 4.4" H x 7.9" L
NOMBRE :Solución computacional profesional de Nvidia Ampere A30 GPU Data Center
Palabra clave :Solución computacional profesional de Nvidia Ampere A30 GPU Data Center
Modelo :NVIDIA A30
FP64 :teraFLOPS 5,2
Base del tensor FP64 :teraFLOPS 10,3
FP32 :0,3 teraFLOPS
Memoria de GPU :24GB HBM2
Ancho de banda de la memoria de GPU :933GB/s
Factores de forma :Dual-ranura, lleno-altura, integral (FHFL)
Poder termal máximo del diseño (TDP) :165W
Base del tensor FP16 :teraFLOPS 165 | teraFLOPS* 330
Base del tensor INT8 :330 TOPS | 661 TOPS*
Interconexión :PCIe Gen4: 64GB/s
more
Contacta

Add to Cart

Buscar vídeos similares
Ver descripción del producto

Informática profesional Solución de centro de datos GPU Nvidia Ampere A30

GPUSolución de centro de datosPara Computación Científica
NVIDIA A30Solución de centro de datos

La solución del centro de datos para la TI moderna

La arquitectura NVIDIA Ampere es parte de la plataforma unificada NVIDIA EGX™, que incorpora componentes básicos en hardware, redes, software, bibliotecas y aplicaciones y modelos de IA optimizados del catálogo NVIDIA NGC™.Al representar la plataforma de HPC e IA de extremo a extremo más poderosa para centros de datos, permite a los investigadores entregar rápidamente resultados del mundo real e implementar soluciones en producción a escala.

Inferencia de aprendizaje profundo


NVIDIA Tesla A30 aprovecha funciones innovadoras para optimizar las cargas de trabajo de inferencia.Acelera una gama completa de precisiones, desde FP64 hasta TF32 e INT4.Al admitir hasta cuatro MIG por GPU, A30 permite que múltiples redes operen simultáneamente en particiones de hardware seguras con calidad de servicio (QoS) garantizada.Y el soporte de escasez estructural ofrece hasta 2 veces más rendimiento además de otras ganancias de rendimiento de inferencia de A30.

El rendimiento de IA líder en el mercado de NVIDIA se demostró en MLPerf Inference.En combinación con NVIDIA Triton™ Inference Server, que implementa fácilmente IA a escala, NVIDIA Tesla A30 brinda este rendimiento innovador a todas las empresas.


Informática profesional Solución de centro de datos GPU Nvidia Ampere A30

NVIDIA A30Solución de centro de datos

Arquitectura GPU NVIDIA Ampere

Memoria HBM2 de 24 GB

máx.Consumo de energía: 165W

Autobús de interconexión:
PCIe Gen. 4: 64 GB/s
3er enlace NV: 200 GB/s

Solución Térmica: Pasiva

GPU de múltiples instancias (MIG):
4 instancias de GPU de 6 GB cada una
2 instancias de GPU de 12 GB cada una
1 instancia de GPU @ 24GB

Soporte de software de GPU virtual (vGPU)



Informática profesional Solución de centro de datos GPU Nvidia Ampere A30

Especificaciones técnicas de la solución de centro de datos NVIDIA A30

Arquitectura GPU

NVIDIA amperio

FP64

5,2 teraFLOPS

Núcleo tensor FP64

10,3 teraFLOPS

FP32

10,3 teraFLOPS

Núcleo tensor TF32

82 teraFLOPS |165 teraFLOPS*

Núcleo tensor BFLOAT16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor FP16

165 teraFLOPS |330 teraFLOPS*

Núcleo tensor INT8

330 TOPS |661 TOPS*

Núcleo tensor INT4

661 PARTES SUPERIORES |1321 TOPS*

Motores de medios

1 acelerador de flujo óptico (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)

memoria GPU

24GB HBM2

Ancho de banda de memoria GPU

933 GB/s

Interconectar

PCIe Gen4: 64 GB/s

Potencia máxima de diseño térmico (TDP)

165W

Factor de forma

Doble ranura, altura completa, longitud completa (FHFL)

GPU de múltiples instancias (MIG)

4 instancias de GPU de 6 GB cada una
2 instancias de GPU de 12 GB cada una
1 instancia de GPU @ 24GB

Soporte de software de GPU virtual (vGPU)

NVIDIA AI Enterprise para VMware
Servidor de computación virtual NVIDIA

Carro de la investigación 0