K
KSS
Home
모든 모듈
학습 경로
실전 도구
홈으로
🤖
LLM 대형 언어 모델
대형 언어 모델의 핵심 개념부터 실전 활용까지
20시간
intermediate
11개 챕터
LLM 모듈
/
Chapter 2
Transformer 아키텍처 완전 분석
LLM의 핵심인 Transformer 구조와 동작원리 완전 해부
75분
6개 핵심 개념
학습 목표
•
Attention 메커니즘의 수학적 원리 이해
•
Multi-Head Attention의 병렬 처리 방식
•
Encoder-Decoder 구조의 정보 흐름 파악
•
Positional Encoding의 필요성과 구현
•
Layer Normalization과 Residual Connection
•
Feed Forward Network의 역할과 구조
이전 챕터
LLM 개요와 역사
다음 챕터
모델 학습과정과 최적화