인공지능 애플리케이션이 직면하는 보안 위협은 다음과 같습니다.
1. 데이터 개인정보 보호 문제: 인공지능 애플리케이션은 예측 생성, 모델 구축 등을 위해 많은 민감한 데이터를 필요로 합니다. 해커는 취약점을 악용하여 이 데이터를 획득하여 사용자 개인정보를 침해할 수 있습니다.
2. 적대적 공격: 해커는 잡음이나 사기성 입력을 주입하여 기계 학습 알고리즘을 방해하거나 속여 허위 또는 오해의 소지가 있는 결과를 생성할 수 있습니다. 예를 들어, 해커는 이미지 픽셀의 색상을 변경하거나 노이즈를 추가하여 시각 인식 시스템이 객체를 잘못 식별하도록 만들 수 있습니다.
3. 신뢰할 수 없는 데이터 소스: 머신러닝 알고리즘이 외부 데이터 소스에 의존하는 경우 해커가 데이터를 조작하거나 악성 코드를 삽입하거나 악의적인 목적으로 허위 데이터를 전송하여 알고리즘이 실패하거나 잘못 작동할 수 있습니다. 예상치 못한 동작입니다.
4. 모델기만: 머신러닝 모델은 데이터 품질과 다양한 하이퍼파라미터의 영향을 받기 때문에 해커는 데이터 소스 선택, 알고리즘 특성, 최적화 도구 선택과 같은 모델의 특정 측면을 공격할 수 있습니다. 공격자는 특정 방식으로 데이터를 구조화할 수도 있고, 영감을 받아 분석 모델을 리버스 엔지니어링하고 나중에 모델을 손상시키기 위해 악성 모델에 백도어를 추가할 수도 있습니다.
5. 지능형 악성 코드: 연구원들은 인공 지능 프로그램의 악의적인 사용 가능성이 증가하고 있다고 경고합니다. 기계 학습 알고리즘이 더욱 정교해지고 지능화됨에 따라 맬웨어 제작자는 이 기술을 사용하여 공격 도구를 개선할 수 있습니다. 그들은 기계 학습 플랫폼을 사용하여 공격 벡터를 사용자 정의 및 테스트하고 셸을 열고 피해자 시스템의 코드를 숨길 수 있으므로 탐지하기가 점점 더 어려워집니다.