Fireflys neueste NVIDIA Jetson Orin-Motherboard ist mit Kernmodulen der Jetson Orin-Serie ausgestattet und bietet eine Rechenleistung von bis zu 157 TOPS. Sie unterstützt die private Implementierung von großen Sprachmodellen und liefert eine starke Rechenleistung für die Entwicklung und Implementierung von Edge-KI-Anwendungen.
Hochleistungsfähiges Edge-Computing-System auf einem Chip
Ausgestattet mit dem NVIDIA Jetson Orin NX Edge-Computing-Modul (16GB-Version) verfügt es über eine achtkernige ARM-CPU und eine 1024-Kern-NVIDIA Ampere-Architektur-GPU mit 32 Tensor Cores. Es kann mehrere parallele KI-Anwendungs-Pipelines ausführen und bietet eine starke KI-Leistung.

Bis zu 157 TOPS Rechenleistung
Der AIO-OrinNX und der AIO-OrinNano haben eine Rechenleistung von 157 TOPS bzw. 67 TOPS und können aktuelle Mainstream-KI-Modelle ausführen, größere und komplexere tiefe neuronale Netze realisieren. Sie verfügen über Funktionen wie Objekterkennung, Zielerfassung und -verfolgung, Spracherkennung und andere visuelle Entwicklungen und eignen sich für eine Vielzahl von KI-Anwendungsszenarien.

Private Implementierung von großen Sprachmodellen
Es unterstützt die private Implementierung moderner Mainstream-KI, wie etwa großer Sprachmodelle wie LLaMa2, ChatGLM, Qwen, großer visuelle Modelle wie ViT, Grounding DINO, SAM und unterstützt das Stable Diffusion V1.5-Bildgenerierungsmodell im Bereich AIGC.

Unterstützung von 8K-Video-Decodierung
Der AIO-OrinNX unterstützt die 18-Kanal-1080p30 H.265-Video-Decodierung und kann bis zu 1x8K30 (H.265), 2x4K60 (H.265), 4x4K30 (H.265), 9x1080p60 (H.265) und 18x1080p30 (H.265) Video-Decodierung unterstützen, um die Anforderungen verschiedener KI-Anwendungsszenarien zu erfüllen.

Generative KI am Edge
Die NVIDIA Jetson Orin-Serie bietet eine starke KI-Rechenleistung, einen großen einheitlichen Arbeitsspeicher und einen umfassenden Software-Stack, um die neuesten generativen KI-Anwendungen mit ultrahoher Energieeffizienz anzutreiben. Sie ermöglicht schnelle Inferenz für jedes generative KI-Modell, das von der Transformer-Architektur angetrieben wird, und erzielt hervorragende Edge-Leistungen bei MLPerf.

KI-Stack und Ökosystem
Demokratisieren Sie die Edge-KI- und Robotikentwicklung mit einem umfassenden KI-Software-Stack und Ökosystem, das von Generative AI at the Edge sowie den NVIDIA Metropolis- und Isaac-Plattformen angetrieben wird. Mit NVIDIA JetPack, Isaac ROS und referenzierten KI-Arbeitsabläufen können Sie fortschrittliche Technologien in Ihre Produkte integrieren, ohne auf in-house KI-Ressourcen angewiesen zu sein.

Umfangreiche Anwendungsszenarien
Es wird weit verbreitet in Produkten und Bereichen wie Unternehmenssicherheit, Verkehrsmanagement, öffentlicher Sicherheit, Umweltschutz, Smart Cities und Heim-Sicherheit eingesetzt.