적대적 공격

입력 데이터에 노이즈를 추가하여 딥러닝 모델이 잘못된 결과를 출력하도록 하는 공격 유형으로, 예를 들어 팬더 이미지에 노이즈를 추가하면 사람은 계속 팬더로 인식하지만 딥러닝 모델은 긴팔원숭이로 잘못된 결과를 출력함. 견고한 AI에서 해결하고자 하는 핵심 문제 중 하나.1

Footnotes

  1. 쉽게 활용하는 인공지능 비즈니스