이미지 분류 모델에 대한 적대적 공격 시뮬레이션
또는 샘플 이미지 선택:
고양이
개
새
자동차
적대적 공격은 머신러닝 모델을 속이기 위해 입력 데이터에 미세한 변화를 가하는 기법입니다. 인간의 눈으로는 구별하기 어려운 수준의 변화지만, AI 모델의 예측을 완전히 바꿀 수 있습니다. 이러한 공격을 이해하고 방어하는 것은 안전한 AI 시스템 구축에 필수적입니다.