NVIDIA 기반 LLM 애플리케이션 개발

logo
본 과정은 대규모 언어모델(LLM)을 활용한 AI 어시스턴트 및 생성형 애플리케이션 개발 실습을 목표로 합니다. 단순한 이론이 아닌, 직접 모델을 구동·연결·배포하며 LLM의 전 과정을 경험합니다. Hugging Face와 NVIDIA NIM 플랫폼을 이용해, 로컬 개발부터 클라우드 배포까지 완성도 높은 실무형 AI 어시스턴트를 구현합니다. <선수지식> - Python 기본 문법 및 간단한 데이터 처리 경험 - PyTorch 또는 TensorFlow 기반 딥러닝 기초지식
calendar
과정 개요

# 본 과정은 NVIDA [Rapid Application Development with Large Language Models] 공인 과정을 포함하고 있으며, 수료시 공인 수료증이 발급됩니다.

calendar
학습 목표
• Transformer 및 생성형 LLM의 구조를 실습을 통해 직관적으로 이해한다. • Hugging Face 파이프라인을 활용해 LLM을 로컬 환경에서 구현한다. • Retrieval-Augmented Generation(RAG)을 이용해 문서 기반 대화형 어시스턴트를 만든다. • NVIDIA NIM을 이용하여 대규모 모델의 인퍼런스 서버를 배포하고 최적화한다. • LangChain/LangGraph를 활용해 에이전트형 LLM 서비스를 완성한다.
calendar
수강대상
• Python 기반 AI/데이터 분석 경험이 있는 개발자 •사내 AI 어시스턴트·문서요약·챗봇 시스템 구축을 계획 중인 실무자 •NVIDIA GPU 환경을 활용해 LLM 응용개발을 실습하고 싶은 교육생
커리큘럼
커리큘럼
  • NVIDIA 기반 LLM 애플리케이션 개발

    Module 1 – Transformer & LLM 기본기

    • Transformer와 Attention의 핵심 개념

    • BERT·GPT 구조 비교 및 시각적 이해

    • Hugging Face pipeline()을 통한 실습형 LLM 체험

    • 실습: 감정분석 및 간단한 Q&A 모델 실행

    • 성과: 나만의 첫 LLM 애플리케이션 동작

    Module 2 – 생성형 LLM과 프롬프트 엔지니어링

    • 생성형 언어모델(Decoder, Seq2Seq)의 작동 방식

    • Prompt Engineering: Instruction, Context, Chain of Thought

    • OpenAI/HuggingFace API를 통한 생성형 대화 구현

    • 실습: 프롬프트 최적화 챗봇 구축

    • 성과: 사용자의 질의에 맥락적으로 대응하는 챗봇 완성 

    Module 3 – Retrieval-Augmented Generation (RAG)

    • 임베딩(Embedding)과 벡터DB 개념

    • 문서 검색 + 생성 결합 파이프라인 설계

    • LangChain을 이용한 문서요약/지식검색형 AI 어시스턴트 구현

    • 실습: 회사 내부 문서를 읽고 요약하는 LLM 구축

    • 성과: 내 문서를 이해하고 답변하는 AI 어시스턴트 완성

    Module 4 – 종합 프로젝트

    • Tool-calling, Routing, Agent Orchestration 기본 원리

    • LangGraph를 활용한 다중 에이전트 워크플로우 설계

    • 프로젝트 실습: “문서요약 Copilot” 또는 “대화형 AI 비서” 완성

    • 실습: RAG + Agent 조합형 LLM 서비스 구축 및 발표

    • 성과: 실무형 LLM 어시스턴트 애플리케이션 완성 및 자격증 취득

1,500,000원 (면세)
TAGS
온디맨드 교육 특징
  • 원하는 시간에 언제든지 개설 요청
  • 맞춤형 교육 일정 및 방법 설정 가능
  • 기업 내부 교육에 최적화된 과정