GPT 관련 개발 도구 소개
GPT에 세부 기능 추가
GPT 출력 제어
프롬프트 보안
적대적 공격 (Adversarial Attack)
자율 주행에서의 사례

LLM에서의 사례

프롬프트 보안 및 해킹
프롬프트 주입 (Prompt Injection) 개념 설명 및 사례

프롬프트 유출 (Prompt Leaking) 개념 설명 및 사례

탈옥 (Jailbreaking) 개념 설명 및 사례
공격 수단 (Offensive Measures)
방어 조치 및 전략 (Defensive Measures & Tactics)
LLM 서비스 개발 팁
가드레일 (Guardrails)

LLM 관련 개발하면서 발생할 수 있는 문제들
8주차 pulse survey
사진
.png)
.png)
.png)
.png)
.png)