생성형 AI와 LLM 보안: 개발자를 위한 Secure Coding A to Z

logo
본 과정은 생성형 AI 기술을 활용한 애플리케이션 개발 시 발생할 수 있는 고유한 보안 위협과 전통적인 웹 취약점을 함께 다루는 실무 중심의 보안 교육입니다. OWASP Top 10과 OWASP Top 10 for LLM을 기준으로 AI의 동작 원리에 따른 잠재적 위험(동작원리, 예상피해)를 분석하고, 이를 방어하기 위한 필수 시큐어 코딩 기법을 실습을 통해 체득합니다. <선수지식> - Python, JavaScript 등 프로그래밍 언어 기본 문법 이해 - REST API 및 웹 서비스 개발에 대한 기본적인 이해 - 생성형 AI/LLM API 사용 경험
calendar
학습 목표
• 생성형 AI의 동작 원리를 이해하고, LLM 애플리케이션의 고유한 보안 위협(동작원리, 예상피해)을 식별할 수 있다. • OWASP Top 10과 OWASP Top 10 for LLM의 주요 항목을 비교 분석하고, AI 환경에서의 새로운 취약점을 설명할 수 있다. • 프롬프트 인젝션, 데이터 유출 등을 예방하기 위한 Secure Coding 기법을 실제 코드에 적용할 수 있다.
calendar
수강대상
• 생성형 AI를 활용해 서비스를 개발하는 SW 개발자 • AI 기반 애플리케이션의 보안 취약점을 점검하고 방어해야 하는 보안 담당자 및 아키텍트 • AI 서비스의 보안 정책 및 가이드를 수립해야 하는 CISO/보안 관리자
커리큘럼
커리큘럼
  • 생성형 AI와 LLM 보안: 개발자를 위한 Secure Coding A to Z

    Module 1 – 생성형 AI 보안 개론

    • 생성형 AI(LLM) 동작 원리 및 AI 기반 애플리케이션 아키텍처 이해

    • AI 개발이 가져오는 새로운 공격 표면(Attack Surface) 및 리스크 분석

    • LLM API 연동 및 챗봇 애플리케이션 환경 구축

    • 개발 환경에서의 초기 보안 고려사항 점검

    Module 2 – LLM 핵심 취약점 (Input & Output)

    • LLM01: 프롬프트 인젝션 (Prompt Injection) 원리, 유형, 예상 피해 분석

    • 기본적인 프롬프트 인젝션 공격 시도 및 분석

    • LLM02: 안전하지 않은 출력 처리 (Insecure Output Handling) (XSS, CSRF 연계)

    • LLM 출력값에 대한 안전한 렌더링 (Output Encoding)

    • LLM06: 민감 정보 유출 (Sensitive Information Disclosure) 및 RAG 데이터 유출

    • RAG 시스템에서의 민감 데이터 비식별화 (PII Masking)

    Module 3 – LLM 심화 방어 전략

    • 간접 프롬프트 인젝션, 다단계 공격 시나리오 분석

    • 프롬프트 인젝션 방어 전략 (입력 필터링, 방어 프롬프트 설계)

    • 프롬프트 인젝션 방어 기법 적용 (System Prompt, Input/Output 분리)

    • LLM04: 서비스 거부 공격 (Model Denial of Service) 분석 및 방어 (Rate Limiting)

    • LLM05: 공급망 취약점 (Supply Chain Vulnerabilities) (e.g., Hugging Face)

    • AI 인프라 보안 설정 (API 키 관리, Rate Limiting)

    Module 4 – 모델 및 에이전트 보안

    • LLM03: 학습 데이터 오염 (Training Data Poisoning) 동작 원리 및 파급 효과

    • LLM10: 불안전한 모델 동기화 (Model Theft) 및 모델 보호 전략

    • LLM07: 과도한 에이전트 권한 (Excessive Agency)의 위험성

    • LLM09: 안전하지 않은 플러그인 설계 (Insecure Plugin Design)

    • LLM08: 과도한 의존성 (Excessive Reliance) 및 3rd-party 위험

    • 에이전트/플러그인 방어 전략 (최소 권한 원칙, 샌드박싱)

    • 안전한 AI 에이전트 기능 제한 및 플러그인 권한 제어

    Module 5 – AI 애플리케이션과 전통적 웹 보안

    • A01: AI 환경에서의 접근 제어 실패 (Broken Access Control) 시나리오

    • A07: 식별 및 인증 실패 (Identification and Authentication Failures)

    • AI 애플리케이션의 사용자 세션 및 권한 제어 구현

    • A03: 인젝션 (Injection) - SQL Injection과 Prompt Injection 연계

    • A02: 암호화 실패 (Cryptographic Failures) - API 키, 벡터 DB 암호화

    • A05: 보안 설정 오류 (Security Misconfiguration) - AI 인프라, Cloud 설정

    • 안전한 API 키 관리 (Secret Management)

1,600,000원 (면세)
TAGS
온디맨드 교육 특징
  • 원하는 시간에 언제든지 개설 요청
  • 맞춤형 교육 일정 및 방법 설정 가능
  • 기업 내부 교육에 최적화된 과정