model extraction attack defense-gan1 인공지능, 기계학습 적대적 공격 정의- 딥러닝의 심층신경망을 이용한 모델에 적대적 교란(Adversarial Perturbation)을 적용하여 오분류 발생시키는 공격기술 키워드- Poisoning attack, Evasion attack, Inversion attack, Model extraction attack, Defense-GAN, 적대적 훈련(Adversarial training), 결과값 분석 차단, 쿼리 횟수 제한 메커니즘 기술요소Poisoning attack(중독 공격, 오염 공격) - 의도적으로 악의적인학습 데이터 주입해 머신러닝모델 손상시키는 공격 - 모델 자체를 공격 - 악의적 데이터를 최소한으로 주입해 모델 성능을저하시키는 것이 공격 평가 기준이 됨 - MS사의 인공지능 채팅봇 ‘테이’ - 스캐터랩 ‘이루다’ - .. 2024. 9. 21. 이전 1 다음