สถานการณ์ไซเบอร์

Surveillance

แก้ไขล่าสุดเมื่อ :
ไม่มีไฟล์แนบ

บริษัท Google สแกน Gmail และการ์ตูนที่เกี่ยวกับการล่วงละเมิดทางเพศเด็ก

สำนักข่าว Forbes รายงานเมื่อวันที่ ๒๐ ธ.ค.๖๔ ว่า บริษัท Google สแกน (ตรวจสอบ) Gmail เพื่อค้นหาเนื้อหา รูปภาพ วิดีโอ ที่เกี่ยวกับการล่วงละเมิดทางเพศเด็ก โดยในช่วงสองทศวรรษที่ผ่านมา บริษัทขนาดใหญ่ด้านเทคโนโลยีหลายแห่งต่างพยายามรับมือกับวิดีโอและภาพการล่วงละเมิดทางเพศเด็กบนแพลตฟอร์มของพวกเขาที่เพิ่มมากขึ้นอย่างต่อเนื่อง อย่างไรก็ดี การสแกนอุปกรณ์ของผู้คนและบัญชีออนไลน์เพื่อหาเนื้อหาที่ผิดกฎหมายอาจนำไปสู่ความกังวลเกี่ยวกับการละเมิดความเป็นส่วนตัว เนื่องจากพบว่า บริษัทด้านเทคโนโลยีขนาดใหญ่ของสหรัฐฯ ไม่เพียงค้นหาภาพถ่ายและวิดีโอของเด็กที่ยังไม่บรรลุนิติภาวะเท่านั้น บริษัทยังค้นหาการ์ตูนที่แสดงภาพการกระทำที่เกี่ยวข้องกับเด็กด้วย

จากการเปิดเผยของหมายค้นล่าสุดที่ร้องขอให้ Google ให้ข้อมูลเกี่ยวกับผู้ต้องสงสัยที่ถูกกล่าวหาว่าเป็นเจ้าของการ์ตูนแอนิเมชั่นละเมิดทางเพศเด็ก (child sexual material: CSAM) ซึ่งเนื้อหาการ์ตูนดังกล่าวผิดกฎหมายของสหรัฐอเมริกา และ Google สามารถสแกนเพื่อค้นหาเนื้อหาเกี่ยวกับเรื่องเพศต่อต้านเด็ก (CSAM) ของ Google ซึ่งเป็นข้อเท็จจริงที่ไม่เคยเปิดเผยแก่สาธารณะมาก่อน

ระบบของ Google สามารถตรวจจับการล่วงละเมิดเด็กได้โดยใช้เทคโนโลยี ๒ แบบ ได้แก่ ๑) ซอฟต์แวร์ที่ออกแบบโดย YouTube ซึ่งมองหาค่า “HASH” ของเนื้อหาที่ผิดกฎหมายที่เคยปรากฎมาก่อนค่า hash ดังกล่าวเป็นการแทนค่าตัวอักษรและตัวเลขของไฟล์ ซึ่งหมายความว่า คอมพิวเตอร์สามารถสแกนไฟล์ภายใน เช่น อีเมล Gmail และดำเนินการแจ้ง (flag) หากมีไฟล์ที่มีค่า hash เดียวกันกับรูปภาพหรือวิดีโอที่ผิดกฎหมาย ๒) เครื่องมือ Machine Learning ของบริษัท Google ที่ใช้เพื่อดูไฟล์และวิเคราะห์ไฟล์เพื่อหาสัญญาณเด็กถูกทารุณกรรม

อย่างไรก็ดี จากกรณีบริษัท Apple วางแผนจะสแกนภาพบนโทรศัพท์ iPhone รวมถึง icloud ที่มีเนื้อหาเกี่ยวกับ CSAM ส่งผลให้ Apple ถูกวิพากษ์วิจารณ์อย่างหนักว่าละเมิดความเป็นส่วนตัว จนต้องชะลอแผนดำเนินการออกไป กรณี Google ซึ่งดำเนินการในลักษณะเดียวกันจึงเป็นกรณีที่ต้องเฝ้าติดตาม เนื่องจาก Gmail และ Drive ของ Google ไม่ได้มีการเข้ารหัสแบบ end-to-end ทำให้ Google สามารถสแกนหาเนื้อหาที่ผิดกฎหมายได้ หน่วยบังคับใช้กฎหมายของสหรัฐฯ จึงยังต้องพึ่งพา Google ในการค้นหาเนื้อหาเกี่ยวกับ CSAM ซึ่งเมื่อ Google ตรวจพบเนื้อหาในลักษณะดังกล่าวจะรายงานต่อ National Center for Missing and Exploited Children (NCMEC) โดยในห้วงครึ่งแรกของปี ๒๕๖๔ Google ได้แจ้งรายงานกว่า ๔๑๐,๐๐๐ ฉบับ และตรวจพบไฟล์ที่อาจผิดกฎหมายกว่า ๓.๔ ล้านไฟล์ เพิ่มขึ้นจากรายงาน ๓๖๕,๐๐๐ ฉบับ และการตรวจพบไฟล์ ๒.๙ ล้านไฟล์ในห้วงเดียวกันของปี ๒๕๖๓