GPU 서버 NEW
병렬 연산과 그래픽 처리에 최적화된 서버를 사용할 수 있습니다
그래픽 처리 장치(Graphics Processing Unit) 서버의 줄임말로 대규모 데이터를 병렬로 처리하여 연산 속도를 극대화한 고성능 인프라입니다.
일반 CPU 서버로 한계가 있는 고해상도 그래픽 작업, 인공지능(AI) 학습, 빅데이터 분석 등을 클라우드 환경에서 안정적으로 수행할 수 있습니다.
강력한 NIVIDIA GPU 라인업
고객 비즈니스에 적합한 서버를 선택할 수 있도록
NVIDIA의 L40s, H200, B200를 제공합니다.
GPU 전용 모니터링 제공
GPU 온도, 사용률, 메모리 사용량 수치를 통해
서버 과부하나 메모리 부족 상태를 방지할 수 있습니다.
최적화된 GPU 환경 세팅
서버 생성 시 NVIDIA Driver와 CUDA가 제공되어
복잡한 설정 없이 바로 작업에 착수할 수 있습니다.
대용량 트래픽 무료 지원
대규모 데이터 전송 시 발생하는 고객 부담을 줄이기 위해
국내 트래픽 4TB, 해외 트래픽 50GB를 제공합니다.
| 구분 | NVIDIA L40s | NVIDIA H200 | NVIDIA B200 |
|---|---|---|---|
| 활용 분야 | 대형 LLM 추론, 파인튜닝 HPC, 3D 그래픽 | 70B 이상의 대형 LLM 학습, 32K 토큰 이상의 긴 컨텍스트 처리, 동시 사용자 수가 많은 AI 서비스 | 100B 초대형 AI 모델 실행, 밀리초 단위 실시간 응답 서비스, 동시 사용자 수가 많은 대규모 AI 플랫폼 |
| 출시년도 | 2023년 | 2024년 | 2024년 |
| 아키텍처 | Ada Lovelace | Hopper | Blackwell |
| Tensor Performance (FP16 기준) | 733 TFLOPS | 1,671 TFLOPS | 2,250 TFLOPS |
| Memory | 48GB | 141GB | 192GB |
| Memory Type | GDDR6 | HBM3e | HBM3e |
| Memory Bandwidth | 864GB/s | 4.8TB/s | 8TB/s |