//////
Search

딥러닝 기계학습 모델의 보안 역기능과 해결책 찾기 나선 KAIST

날짜
2020/06/22
분류
사회
정보보안
인공지능은 어떤 데이터를 학습 시키느냐에 따라 그 성능의 차이가 심하게 남
실제로 구글의 비전AI는 체온계를 들고 있는 흑인의 손을 '흑인과 총'으로 구분하고, 다시 같은 사진에서 손만 밝게 하자 '백인과 체온계'로 구분하기도 함
카이스트에서 기계학습 모델 보안 역기능 취약점 자동 탐지 및 방어 기술 개발 과제를 맡음
기계학습 모델을 스스로 공격하고 찾아낸 취약성에 대한 완화 또는 방어 방법을 제안하는 소프트웨어 시스템 개발
여기서 말하는 딥러닝 기계학습 모델의 보안 역기능 취약성이란, 기계학습 모델의 입력과 출력을 악용해 오작동을 일으키게 하거나, 모델에 이용된 private한 훈련 데이터의 특징을 유출하는 것