NPU 서버 NEW
AI 추론 및 연산에 최적화된 고효율 서버를 사용할 수 있습니다
신경망 처리 장치(Neural Processing Unit) 서버의 줄임말로 AI 추론에 특화된 저전력·고효율 인프라입니다.
인간 뇌의 신경망을 모방하여 복잡한 병렬 처리 작업을 GPU보다 빠르고 효율적으로 수행합니다.

| 구분 | CPU (Central Processing Unit) | GPU (Graphic Processing Unit) | NPU (Neural Processing Unit) |
|---|---|---|---|
| 정의 | 중앙 처리 장치 | 그래픽 처리 장치 | 신경망 처리 장치 |
| 개발 목적 | 일반적인 논리 연산 및 시스템 제어 | 그래픽 처리 및 병렬 연산 | AI 추론 및 서비스 운영에 최적화 |
| 역할 | 시스템을 관리하고 다양한 작업을 처리하는 역할 | 게임, 과학, 연구 분야에서 반복 작업을 빠르게 처리하는 역할 | 텍스트·이미지·음성 인식 AI가 필요한 일을 처리하는 역할 |
| 처리 방식 | 순차 처리 한 번에 하나씩 복잡한 명령 처리 | 병렬 처리 수천 개의 데이터를 동시에 처리 | 고효율 병렬 처리 인간의 뇌 신경망처럼 연산 |
| 활용 분야 | 컴퓨터 시스템 제어 및 명령 관리 | 딥러닝 모델 학습, 빅데이터 연산, 고해상도 3D 렌더링 | AI 추론, 스마트폰, 자율주행, IoT |
리벨리온 ATOM-Max 탑재
세계적인 수준의 반도체 기업 리벨리온(Rebellions)
최신 칩을 채택하여 효율적인 대규모 AI 추론을 지원합니다.
NPU 전용 모니터링 제공
NPU 온도, 사용률, 메모리 사용량 수치를 통해
서버 과부하나 메모리 부족 상태를 방지할 수 있습니다.
최적화된 NPU 환경 세팅
서버 생성 시 리벨리온 전용 드라이버가 제공되어
NPU 서버 환경을 즉시 구축합니다.
대용량 트래픽 무료 지원
대규모 데이터 전송 시 발생하는 고객 부담을 줄이기 위해
국내 트래픽 4TB, 해외 트래픽 50GB를 제공합니다.
지속가능한 AI 인프라
한정된 전력 용량에서 최대의 AI 추론 성능을 지원해
기업의 총소유비용(TCO)를 절감할 수 있습니다.