Detalles del producto
NVIDIA Jetson Orin Nano 4G Modulo 900-13767-0040-000 Computadora
integrada robusta NVMe
Computación integrada robusta Jetson Orin Nano 4G
900-13767-0040-000
Jetson Orin Nano fue el primero.900-13767-0040-000 Las autoridades de los Estados miembrosSistema en módulo GPU Ampere + CPU A78AE Cortex + LPDDR5, El Jetson
Orin Nano 8GB integra 8GB de LPDDR5 de 128 bits y el Jetson Orin
Nano 4GB900-13767-0040-000 Las autoridades de los Estados miembrosintegra 4 GB de 64 bits de LPDDR5 DRAM. y el Jetson Orin Nano900-13767-0040-000 Las autoridades de los Estados miembrosEste controlador proporciona una ruta de audio multicanal a la
interfaz HDMI.El bloque HDA también proporciona una interfaz serial
compatible con HDA a un códec de audio. Se admiten un máximo de
cuatro flujos. Cada puerto USB 2.0 (3x) funciona en modo de alta
velocidad USB 2.0 cuando se conecta directamente a un periférico
USB 2.0 y funciona en USB 1.1 modos de velocidad máxima y baja
cuando se conecta directamente a un USB 1.1 periférico. Cuando se
opera en modo de alta velocidad, a cada puerto USB 2.0 se le asigna
un ancho de banda de unidad de alta velocidad. Aproximadamente un
ancho de banda de 480 Mb/s se le asigna a cada puerto USB 2.0.0
puertos que operan en modos de velocidad máxima o baja comparten
una instancia de bus de velocidad máxima y baja, lo que significa
que el ancho de banda teórico de 12 Mb/s se distribuye entre estos
puertos.
GPU Operación del módulo NVIDIA Jetson Orin Nano 4G
900-13767-0040-000
| Módulo | Núcleos de CUDA | Núcleos de tensores | Frecuencia de funcionamiento por núcleo (hasta) |
| Jetson Orin Nano 8GB | 1024 | 32 | 625 MHz |
| Jetson Orin Nano 4GB | 512 | 16 | 625 MHz |
NVIDIA Jetson Orin Nano 4GB 900-13767-0040-000 Especificación
técnica
| Hasta 20 TOPs INT8 (esparcidos) y 10 TOPs INT8 (densa) |
| Amperios de GPU | 512 núcleos de NVIDIA® CUDA® 16 núcleos de tensor |
| Procesador DARM Cortex-A78AE | Seis núcleos (en 8 GB y 4 GB) Cortex A78AE ARMv8.2 (64-bit)
heterogeneous multi-processing (HMP) CPU architecture | 2x clusters
(1x 4-core cluster + 128 KB L1 + 256KB L2 per core + 2MB L3) + 1x
2- core cluster (128 KB L1 + 256KB L2 per core + 2MB L3) | System
Cache: 4 MB (compartido entre todos los grupos) |
| Rango de temperatura | -25 °C 90 °C |
| Ingreso de potencia admitido | 5V a 20V |
| Tamaño del módulo | 69.6 mm x 45 mm. Un conector SO-DIMM de 260 pines. |
| Memoria | 4 GB de memoria DRAM LPDDR5 de 64 bits |
| Trabajo en red | 10/100/1000 BASE-T Ethernet Controlador de acceso a medios (MAC) |
| Almacenamiento | Apoya el almacenamiento externo (NVMe) |
Recursos de decodificación de vídeo compatibles (modulo Nano de
NVIDIA Jetson Orin)
| Estándar | Perfil (s) | Resolución (número máximo de transmisiones) | Transmisión MPix/s (hasta) | Rate de bits acumulado máximo (Mbps) |
| - ¿ Qué?264 | Línea de base, principal, alta | 4K30 (1) 1080p60 (3) 1080p30 (7) 4K30 (1) | 450 | 115 |
| Alto 444, Alto 444 Predictivo, MVC (por vista considerando dos
vistas) * | 1x1080p60 3x1080p30 ¿Qué es esto? | 225 | 100 |
| H.265 (HEVC) | En el centro, en el centro. | 4K60 (1) 4K30 (2) 1080p60 (5) | 690 | 150 |
| La principal 444, la principal 444 10, el MV (por vista) | 4K30 (1) 1080p60 (2) 1080p30 (5) 4K30 (1) | 340 | 100 |
| El número de unidades | Perfil principal | 4K60 (1) 4K30 (2) 1080p60 (5) | 625 | 75 |
| VP9 | Perfil 0, Perfil 2 | 4K60 (1) 4K30 (2) 1080p60 (5) | 625 | 100 |
• * La mitad de la capacidad máxima de transmisión para YUV444 en
comparación con YUV420
• AV1 Dec: El máximo agregado de Mbps debe ser < 120
Perfil de la compañía
Pekín Plink-Ai es una investigación y desarrollo de integración,
una producción y ventas y la que está de la compañía de alta
tecnología de la industria y del proveedor civil de la solución del
dispositivo de la inteligencia enteramente. Fundada en 2009, Pekín
Plink-AI persiste siempre en teoría de la base de
‘creation+efficiency+Intelligence’, focos en productos y la
combinación del uso firmemente, explorando GPU para nublarse -
soluciones del a-fin. Con la cooperación profundizada con los
clientes, hemos acumulado experiencia valiosa de los servidores de
la nube para afilar el despliegue del producto del AI del lado.
Como llevar por la tarjeta gráfica del juego, tarjeta gráfica
profesional, servidor de GPU, productos todos juntos integrados de
la máquina del AI, sirve para los servicios de la nube, la atención
sanitaria elegante, la agricultura elegante, la logística elegante,
la ciudad elegante, la automatización industrial, la educación y la
investigación científica etc. Eso promovería la transformación del
modo de producción tradicional al modo inteligente en diversas
industrias.
La compañía está situada en el centro de económico, de la ciencia y
de la tecnología Pekín, recursos concentrados de la investigación y
desarrollo. Tenemos miembros del equipo de la capacidad vibrante,
de alto nivel, fuerte de la investigación y desarrollo y más de 10
años de experiencia de gama alta del desarrollo del soporte físico
y de programas. La tecnología de Pekín Plink-AI es uno de los
socios globales de la élite de NVIDIA y de los agentes especiales
de Leadtek.