LLM Core AI
Background

C++/CUTLASS 커널 최적화로하드웨어 잠재 성능 최대화

서울대 딥러닝연구실(DLLab) 스핀오프 LLM Core AI는 Python 프레임워크의 'Software Tax'를 제거합니다. 최신 GPU/SoC의 잠재 성능을 극한으로 끌어올리는 Nova Engine을 경험하세요.

The Dual-Engine Strategy

Hardware Background
NOVA
Nova Engine

Nova Engine (Tech Base)

C++/CUTLASS 기반의 커널 최적화 엔진. 하드웨어의 물리적 한계에 가까운 추론 성능을 제공하여 클라우드 인프라 효율을 극대화합니다.

Ideal forGCP 등 클라우드 공급자 및 대규모 AI 인프라 운영 기업
기술 스택 살펴보기
AI Background
AI
Agentic Commerce

Agentic Commerce (Revenue)

Nova Engine의 레퍼런스 구현체. 고성능 추론 기술을 바탕으로 글로벌 K-뷰티 마켓에서 즉각적인 매출을 창출하는 자율 에이전트.

  • 01 Merchandising
  • 02 Customer Service (CS)
  • 03 Marketing Automation
Background

회사 및 팀

서울대 딥러닝연구실(DLLab) 스핀오프 · 연구실 바로가기

리더십

서울대 딥러닝연구실(DLLab) 스핀오프. 학문적 엄밀함과 프로덕션 엔지니어링을 연결합니다.

글로벌 인재 파이프라인

시스템 엔지니어와 응용 연구자가 함께 추론 성능과 실전 배포에 집중합니다.

협력 및 커뮤니티

Tenstorrent
DORA Community

기술 로드맵

커널 성능 향상에서 글로벌 추론 엔진까지

01

Phase 1: Optimize (현재)

커널 레벨 최적화로 추론 성능 극대화

Tensor Core 커널 등 저수준 엔지니어링으로 실전 성능을 끌어올리고, 최신 GPU/SoC 시스템에서 병목을 제거합니다.

Proof Point

워크로드 기반 벤치마크로 throughput/latency를 수치화할 수 있는 검증 절차를 제공하고, 파일럿에서 재현 가능한 결과를 구축합니다.

02

Phase 2: Nova Engine (다음)

하드웨어 비종속 추론 가속 스택

최적화 역량을 제품화한 Nova Engine으로 확장: 이기종 컴퓨팅 환경에서 추론 성능을 최대화합니다.

03

Phase 3: Co-design (장기)

의존이 아닌 옵션으로서의 HW co-design

소프트웨어 성능이 충분히 검증된 이후, 선택적으로 HW co-design/fabless를 검토하되 하드웨어 비종속 전략을 유지합니다.

측정 가능한 추론 성능 향상이 필요하신가요?

워크로드를 알려주시면, 커널 최적화와 Nova Engine 기반의 실행 계획(프로덕션까지)을 제안드립니다.

문의하기
LLM Core AI - 추론 최적화 및 Agentic Commerce