홈으로
🤖

LLM 대형 언어 모델

대형 언어 모델의 핵심 개념부터 실전 활용까지

20시간
intermediate
11개 챕터
LLM 모듈/Chapter 2

Transformer 아키텍처 완전 분석

LLM의 핵심인 Transformer 구조와 동작원리 완전 해부

75
6개 핵심 개념

학습 목표

  • Attention 메커니즘의 수학적 원리 이해
  • Multi-Head Attention의 병렬 처리 방식
  • Encoder-Decoder 구조의 정보 흐름 파악
  • Positional Encoding의 필요성과 구현
  • Layer Normalization과 Residual Connection
  • Feed Forward Network의 역할과 구조