Von GPT bis Llama: Stellen Sie jedes KI-Modell vor Ort mit AIBOX bereit

0 Kommentare

Die Produkte der AIBOX-Serie zeichnen sich durch hohe Leistung, geringen Stromverbrauch und hohe Umweltverträglichkeit aus. Die Rechenleistung reicht von 6 bis 157 TOPS. Durch die Kombination verschiedener Deep-Learning-Algorithmen ist die AIBOX kompakt und unterstützt die private Bereitstellung großer Mainstream-Modelle. Dies ermöglicht die Digitalisierung in zahlreichen intelligenten Branchen.

Firefly hat derzeit insgesamt neun AIBOX-Produkte auf den Markt gebracht, die sich durch unterschiedliche Rechenleistung, Energieeffizienz und Optik an Anwendungsszenarien in verschiedenen Branchen anpassen.

Firefly x NVIDIA

Ausgestattet mit dem originalen Kernmodul der Jetson Orin-Serie von NVIDIA ist die AIBOX mit beschleunigten Rechenfunktionen unterschiedlicher Leistung und Preisklasse kompatibel und erreicht eine Rechenleistung von bis zu 157 TOPS. Sie unterstützt außerdem das NVIDIA-Software-Ökosystem. Dank seiner leistungsstarken Rechenleistung, der hervorragenden Energieeffizienz und der einfachen Entwicklungserfahrung erfüllt es die Anforderungen verschiedener unabhängiger Anwendungen.


AIBOX-OrinNX AIBOX-OrinNano
SOC NVIDIA Jetson Orin NX (16 GB) NVIDIA Jetson Orin Nano (8 GB)
CPU 8-Kern-64-Bit-Prozessor, bis zu 2,0 GHz Hauptfrequenz 6-Kern 64-Bit-Prozessor, bis zu 1,7 GHz Hauptfrequenz
NPU 157 TOPS 67 TOPS
Videokodierung 1*4K@60fps, 3*4K@30fps, 6*1080p@60fps, 12*1080p@30fps 1080p@30fps
Videodekodierung 1*8K@30fps, 2*4K@60fps, 4*4K@30fps, 9*1080p@60fps, 18*1080p@30fps 1*4K@60fps, 2*4K@30fps, 5*1080p@60fps, 11*1080p@30fps
Speicher 16 GB LPDDR5 8 GB LPDDR5
Stromverbrauch Typisch: 7,2 W (12 V/600 mA)
Maximal: 33,6 W (12 V/2800 mA)
Typisch: 7,2 W (12 V/600 mA)
Maximal: 18 W (12 V/1500 mA)

Großes Sprachmodell

  • Robotermodell: Unterstützt ROS-Robotermodelle.
  • Sprachmodell: Unterstützt große Modelle unter Transformer-Architektur, wie z. B. Llama2/ChatGLM, Qwen und andere große Sprachmodelle für den privaten Einsatz.
  • Visuell Modell: Unterstützt ViT, Grouding DINO, SAM und andere große visuelle Modelle für den privaten Einsatz.
  • AI Painting: Unterstützt den privaten Einsatz des Bilderzeugungsmodells Stable Diffusion V1.5 im AIGC-Bereich.

Firefly x Rockchip

Ausgestattet mit dem AIoT-Flaggschiff-Chip von Rockchip verfügt es über eine Big-Small-Core-Architektur mit einer maximalen Hauptfrequenz von bis zu 2,4 GHz und bietet leistungsstarke Hardwareunterstützung für Hochleistungsrechnen und Multitasking. Gleichzeitig zeichnet sich diese Serie durch industrielle Merkmale wie geringen Stromverbrauch und lange Akkulaufzeit aus und ist somit optimal auf die Anforderungen industrieller Anwendungsszenarien abgestimmt.


AIBOX-3576 AIBOX-3588 AIBOX-3588S
SOC Rockchip RK3576 Rockchip RK3588 Rockchip RK3588S
CPU 8-Core-64-Bit-Prozessor, bis zu 2,2 GHz 8-Core-64-Bit-Prozessor, bis zu 2,4 GHz 8-Core-64-Bit-Prozessor, bis zu 2,4 GHz
NPU 6 TOPS, unterstützt gemischte Operationen mit INT4/8/16/FP16/BF16/TF32 6 TOPS, unterstützt gemischte Operationen mit INT4/INT8/INT16 6 TOPS, unterstützt gemischte Operationen mit INT4/INT8/INT16
Videokodierung 4K bei 60 Bildern pro Sekunde: H.264/AVC 8K bei 30 Bildern pro Sekunde: H.264 8K bei 30 Bildern pro Sekunde: H.264
Videodekodierung 8K bei 30 Bildern pro Sekunde
4K bei 120 Bildern pro Sekunde: VP9/AVS2/AV1
4K bei 60 Bildern pro Sekunde: H.264/AVC
8K bei 60 Bildern pro Sekunde
4K bei 120 Bildern pro Sekunde: VP9/AVS2
8K bei 30 Bildern pro Sekunde: H.264/AVC/MVC
4K bei 60 Bildern pro Sekunde: AV1
1080p bei 60 Bildern pro Sekunde: MPEG-2/MPEG-1/VC-1/VP8
8K bei 60 fps: VP9/AVS2
8K bei 30 fps: H.264 AVC/MVC
4K bei 60 fps: AV1
1080p bei 60 fps: MPEG-2/-1/VC-1/VP8
Speicher LPDDR4 (4/8/16 GB optional) LPDDR4 (4/8/16/32 GB optional) LPDDR5 (4/8/16/32 GB optional)
Stromverbrauch Typisch: 1,2 W (12 V/100 mA)
Maximal: 7,2 W (12 V/600 mA)
Ruhezustand: 0,072 W (12 V/6 mA)
Typisch: 2,64 W (12 V/220 mA)
Maximal: 14,4 W (12 V/1200 mA)
Ruhezustand: 0,18 W (12 V/15 mA)
Typisch: 1,26 W (12 V/105 mA)
Maximal: 13,2 W (12 V/1100 mA)
Ruhezustand: 0,18 W (12 V/15 mA)

Großes Sprachmodell

  • Unterstützt große Modelle der Transformer-Architektur, wie Gemma, Llama2, ChatGLM, Qwen, Phi und andere große Sprachmodelle für den privaten Einsatz.

Firefly x SOPHON

Diese Serie ist mit KI-Prozessoren der SOPHON-Serie ausgestattet, die äußerst kostengünstig sind. Die AIBOX-1684X bietet eine Rechenleistung von bis zuBis zu 32 TOPS, unterstützt gängige Programmierframeworks sowie Videokodierung und -dekodierung und kann für KI-basiertes Denken in Cloud- und Edge-Computing-Anwendungen eingesetzt werden.


AIBOX-1684X AIBOX-1684 AIBOX-1688 AIBOX-186
SOC SOPHON BM1684X SOPHON BM1684 SOPHON BM1688 SOPHON CV186AH
CPU 8-Kern-Prozessor ARM A53, bis zu 2,3 ​​GHz 8-Kern-Prozessor ARM A53, bis zu 2,3 GHz 8-Kern-Prozessor ARM A53, bis zu 1,6 GHz 6-Kern-Prozessor ARM A53, bis zu 1,6 GHz
NPU 32 TOPS 17,6 TOPS 16 TOPS 7,2 TOPS
Videokodierung 32 Kanäle, 1080p@25fps
12 Kanäle, 1080p@25fps H.264
2-Kanal 1080p@25fps
H.264
Maximale Leistung: 1920*1080@300fps oder 3840*2160@75fps Maximale Leistung: 1920*1080@300fps oder 3840*2160@75fps
Videodekodierung 32 Kanäle 1080p bei 25 Bildern pro Sekunde
1 Kanal 8K bei 25 Bildern pro Sekunde
32 Kanäle 1080p bei 30 Bildern pro Sekunde
H.264
Maximale Leistung: 1920 x 1080 bei 480 Bildern pro Sekunde oder 3840*2160 bei 120 fps Maximale Leistung: 1920*1080 bei 480 fps oder 3840*2160 bei 120 fps
Speicher LPDDR4/LPDDR4X
(8/12/16 GB optional)
LPDDR4/LPDDR4X
(8/12/16 GB optional)
8 GB LPDDR4
(4/8/16 GB optional)
16 GB LPDDR4
(4/8/16 GB optional)
Stromverbrauch Typisch: 20,4 W (12 V/1700 mA)
Maximal: 43,2 W (12 V/3600 mA)
Typisch: 9,6 W (12 V/800 mA)
Maximal: 26,4 W (12 V/2200 mA)
Typisch: 7,2 W (12 V/600 mA)
Maximal: 14,4 W (12 V/1200 mA)
Typisch: 6 W (12 V/500 mA)
Maximal: 10,8 W (12 V/900 mA)

Großes Sprachmodell

  • Unterstützt die private Bereitstellung großer Modelle unter der Transformer-Architektur, wie z. B. Llama2, ChatGLM, Qwen und andere große Sprachmodelle.
  • Unterstützt die private Bereitstellung großer visueller Modelle wie ViT, Grouding DINO und SAM.
  • Unterstützt die private Bereitstellung des Bildgenerierungsmodells Stable Diffusion V1.5 im AIGC-Bereich.

Umfassende KI-Privatisierungsbereitstellung

Die meisten Modelle der AIBOX-Serie unterstützen die private Bereitstellung moderner Mainstream-Großmodelle, wie z. B. der Gemma-, Llama-, ChatGLM- und Qwen-Serie und anderer großer Sprachmodelle.

  • Unterstützt traditionelle Netzwerkarchitekturen wie CNN, RNN, LSTM usw.
  • Unterstützt mehrere Deep-Learning-Frameworks wie Caffe, TensorFlow, PyTorch, MXNet und die Entwicklung benutzerdefinierter Operatoren.
  • Unterstützt Docker-Container-Management-Technologie für eine einfache Image-Bereitstellung.

Unterstützung von Video-Codecs

Die AIBOX-Serie unterstützt grundsätzlich Videokodierung und -dekodierung und kann Bis zu 8K@60fps Videodekodierung und 8K@30fps Videokodierung. Es unterstützt gleichzeitige Kodierung und Dekodierung, hohe Auflösung und Mehrkanal-Dekodierung. Dadurch können große Modelle schnell Informationen aus dem Video gewinnen, umfassendere Daten für Modelltraining und -begründung bereitstellen, die Genauigkeit visueller Analysen verbessern und das Training und die Optimierung von Algorithmen beschleunigen.


Neues AIBOX-Modell mit RK3588S-Chip erhältlich

Hinterlasse einen Kommentar

Bitte beachte, dass Kommentare vor der Veröffentlichung freigegeben werden müssen.