AI 프로젝트가 늘어나는 시점, 인프라는 곧 속도이자 신뢰입니다
위티브는 AI를 활용한 다양한 프로젝트를 연구·개발·상용화하고 있습니다. 프로젝트가 많아질수록 공통으로 요구되는 것은 즉시 실험 가능한 계산 자원, 재현 가능한 표준 환경, 서비스 수준의 운영 안정성, 그리고 확장성입니다.
이번 NVIDIA L40S 확보와 ASUS ESC4000-E11 도입은 단순한 장비 증설이 아니라, R&D에서 프로덕션까지 이어지는 전 과정을 더 빠르고 일관되게 만들기 위한 인프라 업그레이드입니다.
1. 도입 장비 개요 — ASUS ESC4000-E11 GPU Server
ASUS ESC4000-E11은 엔터프라이즈 AI/HPC 환경을 전제로 설계된 2U 랙마운트·듀얼 소켓 GPU 서버입니다.
주요 플랫폼 특징은 다음과 같습니다.
– 2 × Intel® Xeon® Scalable (LGA4677)
– 최대 16 DIMM, ECC RDIMM DDR5-5600 (TB급 확장 가능)
– 최대 6 × NVMe/SATA/SAS Hot-swap 스토리지
– 1+1 Redundant 2600W (80 PLUS Titanium)
– 2 × 1GbE + Management Port, OOB 관리(ASMB11-iKVM)
확장성과 안정성, 그리고 운영 관점의 관리 편의성을 함께 고려한 구성입니다.
2. 현재 설치 사양 — Xeon Gold 6430 듀얼 + L40S 48GB
현재 위티브 서버는 다음 사양으로 구성되어 있습니다.
✔ CPU : Intel Xeon Gold 6430 × 2 (Dual-socket)
✔ GPU : NVIDIA L40S 48GB × 1 (추론/서비스 중심 AI GPU)
✔ RAM : DDR5-5600 ECC RDIMM 32GB × 2 = 64GB
✔ 저장장치 : NVMe 4TB
✔ 전원 : 2600W × 2 Redundant (80 PLUS Titanium)
초기 구성은 64GB 메모리로 시작하지만, 플랫폼 자체가 큰 확장을 전제로 설계되어 있어 향후 워크로드 증가에 유연하게 대응할 수 있습니다.
3. 기대 효과 — R&D 반복 속도 향상과 운영 품질의 일관성
AI 프로젝트는 작은 실험이 빠르게 반복될수록 성과가 나는 구조입니다. 내부 GPU 인프라를 갖추면 대기 시간을 줄이고, PoC→MVP→프로덕션 전환 속도를 단축할 수 있습니다.
또한 상용화 단계에서는 모델 성능뿐 아니라 지연시간(레이트턴시), 동시 처리(컨커런시), 장애 복구, 버전 관리(배포·롤백), 로그/모니터링이 중요합니다. 이번 인프라는 “빠른 실험”과 “안정된 운영”을 동시에 끌어올리는 기반이 됩니다.
4. 위티브의 AI 프로젝트 — 커넥트웍스·G2B AI·U:CON(유콘)과 그 너머
위티브는 커넥트웍스(CONNECT WORKS), 공공조달 데이터 분석 플랫폼 G2B AI, 멀티테넌트 여행 유통 OS U:CON(유콘) 등 AI 기반 프로젝트를 지속적으로 고도화하고 있습니다.
이번 GPU 서버 도입은 단일 서비스만을 위한 것이 아니라, 여러 프로젝트가 동시에 진행되는 상황에서 표준화된 실행 환경을 확보하고, 연구·개발·운영의 병목을 줄이는 데 목적이 있습니다. 결과적으로 팀의 개발 생산성과 일정 예측 가능성이 함께 좋아질 것으로 기대합니다.
5. 다음 단계 — 45평 × 2호실 기반 소규모 데이터센터 구축 검토
위티브는 대덕비즈센터(관평동)와 가온비즈타워(대화동)에 위치한 지식산업센터 내 45평 규모의 호실을 이미 매입했으며, 해당 공간을 활용한 소규모 데이터센터 구축을 검토하고 있습니다.
AI·플랫폼 기업에게 데이터센터는 단순한 시설이 아니라, 기술과 서비스를 안정적으로 운영하기 위한 운영 체계입니다.
– 랙 구성, 전력 수용량, 냉각 구조, 배선 등 인프라 확장성
– 전원·네트워크 이중화, UPS, 회선 구성 등 안정성 설계
– 출입 통제, 보안 정책, 장비 접근 관리 체계
– 모니터링, 유지보수, 장애 대응을 포함한 운영 프로세스
이번 GPU 서버 도입은 이러한 인프라 전략의 출발점이며, 위티브는 향후 단계적인 계획 기반 확장을 통해 “그때그때 대응하는 인프라”가 아닌, 지속적으로 운영 가능한 성장 구조를 만들어가고자 합니다.