ក្រុមហ៊ុន Apple បានប្រកាសព័ត៌មានលម្អិត អំពីប្រព័ន្ធស្វែងរករូបភាពដែលពាក់ព័ន្ធនឹងការរំលោភបំពានផ្លូវភេទកុមារ (CSAM) នៅលើឧបករណ៍របស់អតិថិជនអាមេរិកទាំងអស់។
មុនពេលរូបភាពមួយត្រូវបានរក្សាទុកនៅលើ iCloud Photos បច្ចេកវិទ្យានេះនឹងស្វែងរករូបភាពដែលមានភាពដូចគ្នា ដែលប្រព័ន្ធ CSAM បានស្គាល់រួចមកហើយ។
ក្រុមហ៊ុន Apple បាននិយាយថា ប្រសិនបើការស្កេននោះបានរកឃើញរូបភាពដែលពាក់ព័ន្ធនឹងការរំលោភបំពានផ្លូវភេទកុមារ នោះអ្នកត្រួតពិនិត្យជាមនុស្ស នឹងធ្វើការវាយតម្លៃ និងរាយការណ៍អ្នកប្រើប្រាស់ទៅសមត្ថកិច្ច។
ទោះយ៉ាងណាក៏ដោយ មានការព្រួយបារម្ភអំពីឯកជនភាពដែលបច្ចេកវិទ្យានេះអាចពង្រីក ដើម្បីស្កេនទូរសព្ទសម្រាប់មាតិកាហាមឃាត់ ឬសូម្បីតែសុន្ទរកថានយោបាយ។
ជាមួយគ្នានេះផងដែរ អ្នកជំនាញព្រួយបារម្ភថា បច្ចេកវិទ្យានេះអាចត្រូវបានប្រើប្រាស់ដោយរដ្ឋាភិបាលផ្តាច់ការដើម្បីស៊ើបការណ៍ពីពលរដ្ឋរបស់ខ្លួនទៀតផង៕