대형 언어 모델을 작은 박스에 넣기: AIBOX-1684X 임베디드 PC

댓글 0개

AIBOX-1684X 임베디드 미니 PC는 주류 대형 언어 모델의 개인 배치를 지원하며 최대 32TOPS의 계산 성능을 제공합니다. 또한 CNN, RNN, LSTM과 같은 전통적인 네트워크 아키텍처와 TensorF NNX, Darknet과 같은 딥 러닝 아키텍처 및 사용자 정의 연산자 개발을 지원합니다. Docker 컨테이너 관리 기술을 지원합니다. 지능형 모니터링, AI 교육, 계산 성능 서비스, 엣지 컴퓨팅, 대형 모델의 개인 배치, 데이터 보안 및 개인 정보 보호와 같은 시나리오에 적합합니다.

종합 인공지능 개인화 배치

  • 대형 언어 모델: LLaMa2, ChatGLM, Qwen 등 Transformer 아키텍처 기반의 초대형 파라미터 모델의 개인 배치를 지원합니다.
  • 대형 시각 모델: ViT, Grounding DIN0, SAM과 같은 대형 시각 모델의 개인 배치를 지원합니다.

  • AI 그림: AIGC 분야에서 Stable Diffusion V1.5 이미지 생성 모델의 개인 배치를 지원합니다.

  • 전통적인 네트워크 아키텍처: CNN, RNN, LSTM과 같은 전통적인 네트워크 아키텍처를 지원합니다.

  • 딥 러닝 프레임워크: TensorFlow, PyTorch, MXNet, PaddlePaddle, ONNX, Darknet을 포함한 여러 딥 러닝 프레임워크를 지원하며, 사용자 정의 연산자 개발을 지원합니다.

  • Docker 컨테이너화: Docker 컨테이너화 관리 기술을 지원하며, 이미지를 쉽게 배포할 수 있습니다.

32 TOPS 초고속 컴퓨팅 성능 AI 프로세서

SOPHON AI 프로세서 BM1684X를 탑재하여 8코어 ARM Cortex-A53을 기반으로 하며, 최고 주파수는 2.3GHz이고 12nm 공정 기술을 채택하였습니다. 최대 32 TOPS (INT8) 계산 성능, 16 TFLOPS (FP16/BF16) 계산 성능, 또는 2 TOPS (FP32) 고정밀 계산 성능을 제공하며, 주류 프로그래밍 프레임워크를 지원하고, 클라우드 및 엣지 컴퓨팅 애플리케이션에서 인공지능 추론에 널리 사용될 수 있습니다.

멀티 채널 비디오 AI 처리 성능

최대 32채널 1080P H.264/H.265 비디오 디코딩과 32채널 1080P HD 비디오 전체 과정 처리(디코딩 + AI 분석)를 지원하며, 얼굴 인식 및 번호판 인식과 같은 다양한 AI 애플리케이션 시나리오의 요구를 충족합니다.

강력한 네트워크 통신 능력

듀얼 채널 1000Mbps 이더넷을 지원하며, 고속 및 안정적인 네트워크 통신 방식으로 다양한 애플리케이션 시나리오의 요구를 충족합니다.

효율적인 열 방출, 정교한 제작

산업용 전면 금속 쉘과 열 전도용 알루미늄 합금 구조를 갖추고 있으며, 상단 덮개 쉘 측면에 배너 그릴 디자인을 적용하여 외부 공기 순환을 보장하고 효율적인 열 방출을 통해 고온 환경에서도 계산 성능과 안정성을 보장합니다. 상단 덮개는 간단하고 아름다운 다각형 디자인을 채택하여 전체 기계가 컴팩트하고 정교하며 안정적으로 실행되어 다양한 산업용 애플리케이션 요구 사항을 충족합니다.

완전한 개발 정보

개발을 더 쉽고 편리하게 만들기 위해 소스 코드, 튜토리얼, 기술 정보 및 개발 도구를 제공합니다.

광범위한 응용 시나리오

지능형 모니터링, AI 교육, 컴퓨팅 서비스, 엣지 컴퓨팅, 대형 모델의 개인 배치, 데이터 보안 및 개인 정보 보호 등 다양한 시나리오에서 널리 사용됩니다.

 


Firefly 서버 시리즈 - 고성능 컴퓨팅 솔루션

단안 깊이 추정 - AIBOX 응용 프로그램

댓글 남기기

댓글 게시 전에는 반드시 승인이 필요합니다.