본문 바로가기
  • Godicc's IT에 방문해주셔서 감사합니다
Apple/Others

보안 연구원, 애플의 CSAM 기능은 “비효율적이고 위험하다”고 밝혀

by 고딕 Godicc 2021. 10. 15.
728x90

12명의 유명한 사이버 보안 전문가들이 NYTimes를 통해 iPhone의 아동 성착취 이미지를 찾아내기 위한 기능이 “위험한 기술”이라고 애플을 비난했습니다

 

이 내용은 애플과 EU가 국민의 스마트폰을 불법적으로 감시하는 방안을 검토했던 전문가들의 연구 결과에서 나온 내용이며 이는 정부의 감시를 부추길 수 있는 비효과적이고 위험한 기능이라고 말했습니다

 

지난 8월 애플의 CSAM 감지 기능은 총 3가지로 iCloud+ 포토에 업로드된 이미지 감지, iMessages에서 오고가는 사진 경고, Siri와 Spotlight에서 CSAM 관련 정보 제공이 있습니다

 

연구원들에 따르면, EU는 암호화된 스마트폰에서 아동 성착취 이미지는 물론 조직 범죄의 징후와 테러리스트 관련 이미지를 감지하기 위한 프로그램을 찾고 있다고 밝혔습니다

 

연구원들은 “법을 준수하는 시민들을 감시하고 범죄 시도에 저항하는 것이 국가 안보의 우선 순위여야 한다”고 말하며 EU가 계획하고 있는 일의 위험성을 알리기 위해 연구 결과를 발표한다고 밝혔습니다

 

애플은 iOS 15, iPadOS 15, macOS Monterey에서 아동의 안전을 위해 CSAM 탐지 기술을 내장하기로 결정한 것에 대하여 사용자, 시민 단체, 보안 전문가, 학계, 정치인, 내부 직원들로부터 심각한 비난을 받았습니다

 

애플은 CSAM 탐지 기술 도입을 발표한 뒤 사용자들의 궁금증을 해결하기 위해 세부 정보, FAQ를 공개했으며 여러 공식 문서, 회사 경영진과 인터뷰 등을 통해 오해를 풀고 사용자를 안심시키기 위해 노력했습니다

 

결국 애플은 여러 비난을 받아들이고 지난 9월 3일 CSAM 탐지 기술 도입을 연기했습니다

하지만 어떤 부분을 완화시키고 해결할지는 밝히지 않았습니다

728x90

댓글