
서울대 딥러닝연구실(DLLab) 스핀오프 LLM Core AI는 Python 프레임워크의 'Software Tax'를 제거합니다. 최신 GPU/SoC의 잠재 성능을 극한으로 끌어올리는 Nova Engine을 경험하세요.
C++/CUTLASS 기반의 커널 최적화 엔진. 하드웨어의 물리적 한계에 가까운 추론 성능을 제공하여 클라우드 인프라 효율을 극대화합니다.
Nova Engine의 레퍼런스 구현체. 고성능 추론 기술을 바탕으로 글로벌 K-뷰티 마켓에서 즉각적인 매출을 창출하는 자율 에이전트.

서울대 딥러닝연구실(DLLab) 스핀오프 · 연구실 바로가기
서울대 딥러닝연구실(DLLab) 스핀오프. 학문적 엄밀함과 프로덕션 엔지니어링을 연결합니다.
시스템 엔지니어와 응용 연구자가 함께 추론 성능과 실전 배포에 집중합니다.

커널 성능 향상에서 글로벌 추론 엔진까지
커널 레벨 최적화로 추론 성능 극대화
Tensor Core 커널 등 저수준 엔지니어링으로 실전 성능을 끌어올리고, 최신 GPU/SoC 시스템에서 병목을 제거합니다.
워크로드 기반 벤치마크로 throughput/latency를 수치화할 수 있는 검증 절차를 제공하고, 파일럿에서 재현 가능한 결과를 구축합니다.
하드웨어 비종속 추론 가속 스택
최적화 역량을 제품화한 Nova Engine으로 확장: 이기종 컴퓨팅 환경에서 추론 성능을 최대화합니다.
의존이 아닌 옵션으로서의 HW co-design
소프트웨어 성능이 충분히 검증된 이후, 선택적으로 HW co-design/fabless를 검토하되 하드웨어 비종속 전략을 유지합니다.