완벽한 AI 워크로드를 위한 퍼스널 슈퍼컴퓨터.
₩8,800,000부터
어떤 환경에서 AI를 쓰고 계신가요?
대학원생 5~10명이 서버 한 대를 공유합니다.
학회 마감이
겹치면 대기가 수일씩 밀리고,
밤새 돌리던 실험이 다른 사람
작업으로 중단됩니다.
공용 서버 경쟁 자체가 없어집니다.
NVIDIA Grace Blackwell
기반 최대 200B 파라미터 모델을 즉시 구동할 수 있습니다.
대규모 모델 학습을 몇 번 돌리면 예산이 금방 소진됩니다.
남은
학기 동안 실험을 멈추거나 규모를 축소하는 상황이 반복됩니다.
반복 실험을 얼마나 돌려도 비용이 늘지 않습니다.
연구비
소진 걱정 없이 실험에만 집중할 수 있습니다.
AI 모델 학습·추론은 리소스 사용량이 불규칙해 월말 청구서를 받기 전까지 정확한 비용을 알 수 없습니다.
AI를 자주, 많이 쓰는 팀일수록 장기적으로 클라우드 대비 비용 효율이 높아집니다.
국방·공공기관·금융기관은 내부망과 외부망이 물리적으로 분리되어
있습니다.
클라우드 AI 서비스는 사용 자체가 불가능합니다.
물리적 망분리 환경에서도 데이터센터급 AI 성능을 그대로 사용할 수 있습니다.
금융·의료·공공기관은 처리 이력을 내부에서 완전히 추적·보관해야 하는 법적 의무가 있습니다.
처리 이력을 내부에서 완전히 통제할 수 있습니다.
개인정보보호법
및 ISMS 요건 대응이 간소화됩니다.
타 제품과 직접 비교해보세요
| 비교 항목 |
★ 추천 Dell Pro Max GB10 |
HP Z2 Mini G1a (AI Max+ 395) |
Mac Studio M3 Ultra |
|---|---|---|---|
| 가격 | 약 880만 원 | 약 600만 원 | 약 659만 원 (메모리 96GB) |
| AI 추론 성능 (BF16) | 101 TFLOPS / 1 PFLOPS (FP4) | 36.9 TFLOPS | 미공개 |
| 최대 구동 모델 | 200B | 128B | 120B |
| AI 개발 생태계 | NVIDIA CUDA / DGX OS |
ROCm / HIP *호환 안되는 AI 툴 존재 |
Core ML / MLX *호환 안되는 AI 툴 존재 |
| 소비전력 (추론 중) | ~200 W | ~220 W | ~270 W |
| 크기 | 15×15×5.1cm / 1.3kg | 8.5×16.8×20cm / 2.3kg | 19.7×19.7×9.5cm / 3.6kg |
| 확장성 | 케이블 1개 → 2대, 256GB / 405B | 확장 불가 | 확장 불가 |
| 메모리 용량 | 128 GB | 128 GB | 96~256 GB |
| 메모리 대역폭 | 273 GB/s | 212 GB/s | 819 GB/s |
| 토큰 생성 속도 (120B) | 38.5 tok/s | 34 tok/s | 69 tok/s |
| OS 지원 | Ubuntu 24.04 (DGX OS) | Windows / Ubuntu | macOS 전용 |
200B 모델, 이제 책상 위에서 손쉽게 구동하세요
USB-C 하나, 컴팩트한 15cm 사이즈로 충분합니다
비싼 장비 살 필요 없이, 2대 연결하면 끝입니다
| 비교 항목 |
★ 추천 Dell Pro Max × 2 |
H100 80GB × 4 | GPU 클라우드 (405B 기준) |
|---|---|---|---|
| 가격 | 약 1,600만 원 (일회성) | 1.5~2.3억 원 | 연 7,500만 원+ |
| 메모리 | 256GB | 320GB | 320GB |
| 최대 파라미터 (4bit) | 405B | 405B+ | 405B |
| 설치 공간 | 책상 위 2대 | 서버실 | 공간 불필요 |
| 데이터 보안 | 완전 로컬 | 완전 로컬 | 외부 서버 |
| 연결 방법 | QSFP 케이블 1개 | InfiniBand (3~5천만 원 추가) | 멀티GPU 인스턴스 |
QSFP 200Gbps부터 10GbE까지 — 책상 위에서 서버실 수준의 연결을 그대로 씁니다
좋은 장비를 알아도, 구매 후 세팅·관리까지 많은 과정이 있습니다.
예산 신청·내부 보고에 바로 활용 가능한 전체 사양입니다.
클릭하면 전체 상세 사양이 펼쳐집니다
연구실에서, 사무실에서, 어디서든 AI를 시작하세요