Apple의 CSAM 감지 기능이 실제로 원래 목적대로 될 수 있습니까?

by 오준희   업데이트 시간 2021-09-23 / 업데이트 대상  iOS 15

Apple은 아동 학대를 막기 위해 새로운 일련의 기술적 조치들을 도입했습니다. 기계 학습은 이미지의 누드를 감지하기 위해 iCloud 계정 계열의 opt-in 설정에 사용됩니다. 시스템은 이러한 주사가 수신 또는 전송되지 않도록 차단하고 경고를 표시하며, 부모에게 자녀가 보내거나 봤다는 것을 알립니다.

Apple은 이러한 기능 중 어느 것도 CSAM(성적 학대 자료)를 처리할 때 사용자 개인 정보를 위험에 빠뜨리지 않는다는 점을 분명히 했습니다.iCloud 감지 메커니즘에 영리한 암호화가 사용되어 스캔 메커니즘이 CSAM이 아닌 이미지에 액세스하는 것을 방지할 것입니다. Apple은 새로운 시스템이 모든 약탈적 메시지를 방해할 수 있고 많은 암호화 전문가의 승인을 포함하기 때문에 아동 착취에서 중요한 역할을 할 수 있다고 확신합니다.

apple privacy

Part 1: Apple의 CSAM 탐지이란 무엇인가?

기본적으로 Apple이 발표한 세 가지 개별 업데이트가 있으며 각각의 업데이트는 어린이 안전과 관련이 있습니다. CSAM은 이러한 업데이트 중 가장 중요한 기능으로 많은 주목을 받을 수 있는 이유는 iCloud 사진을 스캔할 수 있는 특별한 기능이기 때문입니다. 이 기능은 사용자의 이미지를 이전에 식별된 자료의 데이터베이스와 비교할 수 있습니다. 여러 특정 이미지가 탐지되면 검토 프로세스가 시작됩니다.

이미지가 인간 리뷰어에 의해 확인되면 Apple은 iCloud 계정을 일시 중지하고 NCMEC 또는 국립 실종 착취 아동 센터에 자동으로 보고됩니다.또한 메시지 앱을 위한 통신 안전 기능이 있어 아동이 성적으로 노골적인 사진을 보내거나 받을 때 앱이 이를 감지할 수 있습니다.

apple csam detection

만 13세 이상 아동용 메시지 앱에서 노골적인 이미지를 수신하면 경고가 표시됩니다. 그 외에도 Apple은 CSAM과 관련된 쿼리에 개입하기 위해 연구 기능과 Siri도 업데이트하고 있습니다. 남용 자료를 보고하는 방법을 알아야 하는 경우 Siri가 자원에 대한 링크를 제공할 수 있습니다.

siri and message csam

Part 2: 왜 Apple의 CSAM이 논란의 여지가 있는 것처럼 보이는가?

많은 분들이 이 특정 시스템의 범위가 적절하게 제한된다는 데 사용한다는 것을 대부분 동의하지만, 많은 감시자, 전문가 및 개인 정보 보호 옹호자들은 기본적으로 시스템의 남용 가능성에 대해 우려하고 있습니다. Microsoft 및 Dropbox와 같은 많은 Cloud 스토리지 공급업체가 이미 서버에서 이미지 스캔을 수행하고 있습니다. 그러므로 많은 사람들은 동의하고 동의하지 않으며, 상황이 계속된다면 안드로이드 폰으로 바꿀 생각까지 합니다. 또한, Apple CSAM에 대한 다양한 논쟁도 있습니다. 그래서 어떤 사람들은 엇갈린 평가를 내렸습니다.

1. 동의하신 분

  • Benny Pinkas는 이스라엘의 Bar Ilan University의 암호학자이며 Apple의 PSI 시스템이 유용성과 개인 정보 보호 사이에서 탁월한 균형을 제공한다고 믿습니다. 그에게는 사용자 개인 정보를 보호하고 오탐을 최소화하면서 CSAM 콘텐츠를 식별하는 것이 건설적일 수 있다고 합니다.
  • Julie Cordia는 Thorn이라는 아동 안전 옹호 그룹의 CEO이며 Apple의 이번 변동은 사람들 특히 충격적인 순간이 온라인에 유포된 생존자들을 위해 정의에 더 가까이 다가가는 데 도움이 된다고 믿습니다.
  • David Forsyth, Dan Boneh 및 Mihir Bellare와 같은 암호학자 및 컴퓨터 과학자는 이 시스템이 다른 사람들이 CSAM을 소유하거나 사용하는 가능성을 크게 높일 수 있다고 봅니다. 따라서 무해한 사용자는 최소한의 개인 정보 손실을 경험하게 됩니다.

2. 동의하지 않은 분

  • Nadim Koeissi는 암호학자이자 Symbolic Software로 멀리 알려진 회사의 설립자입니다.Koessi에게 개인 장치가 일부 유해한 콘텐츠 기준에 따라 사용자를 스캔하고 모니터링한 다음 이를 당국에 보고한다는 생각은 상당히 어려운 문제가 될 수 있습니다.
  • Kendra Albert는 통보에 대한 우려를 제기한 하버드 사이버법 클리닉 강사입니다. 그분은 그들의 부모들이 그들을 기웃거리도록 격려받을 것이기 때문에 이것이 결국 동성애자나 트랜스젠더 아이들을 낳을 수 있다고 믿다고 합니다.
  • Alex Stamos라는 Stanford Internet Observatory의 교수는 Apple이 암호화 전문가 커뮤니티와 협력할 수 있는 능력에 대해 질문합니다. 그는 Apple이 균형 논쟁에 끼어들었다고 여지며 토론이나 공개 협의 없이 사람들을 최전방으로 몰아넣었다고 생각합니다.

3. Apple의 CSAM에 대한 기타 분쟁

  • 프린스턴 대학에는 Apple의 CSAM이 이전에 이와 같은 것을 개발했기 때문에 확실히 취약하다고 생각하는 두 명의 학자가 그렇게 주장했습니다. 그들에 따르면 이번 시스템은 같은 방식으로 작동했지만 재빨리 눈에 띄는 문제들을 발견했다고 합니다.

    dangerous apple csam
  • Washington Post는 몇 명의 연구원이 Apple과 유사한 CSAM을 개발하는 데 2년을 보냈다고 주장하는 사실을 발표했습니다. Apple이 지난 3년 동안 CSAM을 운영하고 있다는 사실을 인정한 후 이야기는 상당히 극적인 반전을 이루어졌습니다. 따라서 수백만 명의 Apple iPhone 사용자에게 심각한 경고라고 생각합니다.

Part 3: CSAM 감지를 중지할 수 있습니까?

iOS 및 iPadOS의 다음 메인 업데이트가 되었을 때 출시될 수 있는 감지 기능에 대해 걱정하는 iPhone 및 iPad 사용자가 많이 있습니다. Apple이 다른 사람의 개인 사진을 스캔하지 못하도록 하는 옵션이 여전히 있습니다. 주목해야 한다는 것은 이 CSAM 도구는 iCloud에 업로드된 이미지만 살펴봅니다. 명확하게 하기 위해 감지 시스템에서 사용자가 Whatsapp 또는 Telegram과 같은 종단 간 암호화 앱을 통해 보낼 사진을 스캔하지 않습니다. 그러나 여전히 그것은 엔드 투 엔드 암호화에 침투하여 적절한 기능을 할 수 있다고 말하는 초기 경고와는 배치될 수 있습니다.

icloud csam

사진을 이미 iCloud에 동기화했으며 감지 도구가 사진을 스캔하지 못하도록 하려면 다음 단계를 수행해야 합니다:

  • Open Settings 앱으로 시작한 다음 Photos 섹션으로 이동하여 시작하세요.
  • iCloud 사진을 클라우드에 동기화하지 않으려면 iCloud 사진을 전환해야 합니다.
  • iCloud 라이브러리에서 미디어를 가져오려면 '사진 및 비디오 다운로드'를 클릭하기만 하면 됩니다.

  • ios 15 icloud photos

Part 4: CSAM 논란에 대한 Apple의 최근 대응은?

Apple은 개인 정보를 훼손하거나 이전 약속으로 돌아가는 것과 관련하여 강력하게 부인하고 있습니다. 두 번째 상세한 문서가 회사에 의해 출판되었는데, 이 문서는 대부분의 청구 사항을 다루고 있습니다. Apple은 여전히 사용자 사진을 알려진 아동 착취 자료 모음과 비교만 한다고 강조합니다. 따라서 자신의 자녀 사진이 있는 경우에는 신고가 실행되지 않습니다.

Apple은 또한 누군가가 리뷰를 트리거하기 위해 특정 수의 이미지가 감지되어야 한다는 사실을 고려할 때 오탐의 확률이 1조 분의 1이라고 강조했습니다. Apple은 이 모든 것이 어떻게 작동하는지에 대해 외부 연구원들에게 많은 가시성을 제공하지 않았지만 기본적으로 우리가 이것에 대해 Apple 회사의 말을 받아들일 필요가 있다고 말했습니다.

또한 Apple은 수동 검토가 인간 검토자에 의존하며 악의적인 공격으로 인해 CSAM이 장치에 있는지 감지할 수 있다고 말합니다. 회사는 과거에서 많은 기관들은 사용자 개인 정보를 저하시키기 위해 변경을 요청해 달라고 하기 때문에 정부 및 법 집행 기관과의 협력을 거부할 것이라고 밝힙니다.

결론

지난 며칠 동안 Apple은 발표한 CSAM 감지 기능과 관련하여 계속해서 명확성을 제공했습니다. CSAM은 비디오 적용은 아닌 iCloud에 저장된 사진에만 적용되는 반면 회사는 CSAM 구현을 제공하는 다른 회사와 비교하여 개인 정보 보호 기능은 친화적이며 개인 정보 보호를 옹호한다고 분명히 밝혔습니다.그러나 회사는 미래에 훨씬 더 많은 일을 할 수 있고 시간이 지남에 따라 계획을 확장하고 발전시킬 수 있음을 인정했습니다. CSAM에 대한 추가 설명은 시간이 지남에 따라 제공되므로 더 명확해질 때까지 기다릴 수도 있습니다.

저희는 여러분의 의견을 소중히 여기므로 Apple의 아동 안전 관련된 업데이트에 대한 의견을 아래에 남겨주시면 감사하겠습니다.

  업데이트 시간 2021-09-23 / 업데이트 대상  iOS 15

(게시물을 평가하려면 여기 클릭하십시오.)

(0 표수, 평균: 5.0 5에서 )

여기서 토론에 참여하여 목소리를 공유하십시오.