สถานการณ์ไซเบอร์

Surveillance

แก้ไขล่าสุดเมื่อ :
ไม่มีไฟล์แนบ

บริษัท Apple เตรียมเปิดใช้ระบบตรวจจับภาพล่วงละเมิดเด็กในอุปกรณ์ Apple ในสหรัฐฯ

สำนักข่าว BBC รายงานเมื่อ ๗ ส.ค. ๖๔ ว่า บริษัท Apple เตรียมเปิดใช้ระบบตรวจจับสื่อล่วงละเมิดทางเพศเด็ก (Child Sexual Abuse Material : CSAM) ในโทรศัพท์ iPhone รวมถึงอุปกรณ์ iPad และคอมพิวเตอร์ Mac ของผู้ใช้ในสหรัฐฯ โดยจะเพิ่มระบบนี้เข้ามาในระบบปฏิบัติการ iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey ซึ่งจะเปิดตัวในห้วงปลายปี ๒๕๖๔

CSAM จะทำงานโดยการค้นหารายการรูปที่มีค่าตรงกันกับฐานข้อมูลของศูนย์แห่งชาติเพื่อเด็กหายและถูกแสวงประโยชน์ (National Center for Missing and Exploited Children : NCMEC) ก่อนที่ภาพจะถูกจัดเก็บไว้ใน iCloud Photos หากตรวจพบรูปที่มีการละเมิดระบบจะรายงานรูปภาพให้เจ้าหน้าที่ตรวจสอบ จากนั้นสามารถดำเนินการตามขั้นตอนเพื่อปิดใช้งานบัญชีของผู้ใช้และรายงานต่อหน่วยงานบังคับใช้กฎหมายได้ 

หลังจาก Apple ประกาศจะใช้ระบบนี้ ได้มีนักวิจัยด้านการเข้ารหัส นาย Matthew Green จากมหาวิทยาลัย Johns Hopkins ระบุว่าสามารถหลอกระบบตรวจจับให้แจ้งเตือนรูปภาพธรรมดาที่ถูกปรับแต่งมาเฉพาะเพื่อกระตุ้นให้ระบบส่งการแจ้งเตือนที่ผิดพลาดได้

นาย Will Cathcart ประธานผู้บริหารสูงสุดของบริษัท WhatsApp ระบุว่า ตนมีความกังวลมากกับเทคโนโลยีดังกล่าวของ Apple เนื่องจากเทคโนโลยีนี้อาจถูกใช้งานโดยรัฐบาลเผด็จการเพื่อสอดแนมพลเมืองของตนเอง และจากที่ระบบสามารถสแกนเนื้อหาส่วนตัวได้อย่างง่ายดาย ต่อไป Apple อาจได้รับการร้องขอให้สแกนรูปประเภทอื่นที่รัฐบาลแต่ละประเทศที่ iPhone วางจำหน่ายเห็นว่าต้องมีการควบคุม

การนำระบบนี้มาใช้นับเป็นครั้งแรกที่ Apple เริ่มการสแกนรูปถ่ายบนอุปกรณ์ของตนเอง จากเดิมที่สแกนเพียงรูปที่เก็บอยู่บน iCloud เท่านั้น Apple ระบุว่าระบบใหม่นี้ยังให้ความเป็นส่วนตัวแก่ผู้ใช้โดยเทคนิคการเรียนรู้เกี่ยวกับรูปถ่ายของผู้ใช้เท่านั้น หากพวกเขามีคอลเลกชันของเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็กที่รู้จักในบัญชี iCloud ของตน