ក្រុមហ៊ុន Apple និយាយថា ការប្រកាសរបស់ខ្លួនអំពីឧបករណ៍ស្វ័យប្រវត្តិដើម្បីរកមើលការរំលោភបំពានផ្លូវភេទលើកុមារ នៅលើ iPhone និង iPad ត្រូវបានគេយល់ច្រលំយ៉ាងខ្លាំង។
គួររំលឹកឲ្យដឹងថា កាលពីថ្ងៃទី ៥ ខែសីហា ក្រុមហ៊ុន Apple បានបង្ហាញនូវកម្មវិធីស្កេនរករូបភាពថ្មី ដែលអាចជូនដំណឹងដល់ក្រុមហ៊ុន Apple ប្រសិនបើរូបភាពដែលគេបានបញ្ចូលទៅក្នុង iCloud របស់ខ្លួន ជារូបភាពខុសច្បាប់ ពោលគឺ រំលោភបំពានដល់កុមារ។
ទោះបីជាយ៉ាងណាក៏ដោយ មុខងារមួយនេះត្រូវបានគេប្រតិកម្មយ៉ាងខ្លាំង ដោយនិយាយថា Apple បានបង្កើតទ្វារក្រោយសម្រាប់ប្រព័ន្ធសុវត្ថិភាព នៅក្នុង Software របស់ខ្លួន។
ក្រុមហ៊ុន Apple បាននិយាយថា សេចក្តីប្រកាសរបស់ខ្លួនត្រូវបានគេយល់ច្រឡំយ៉ាងខ្លាំង។
លោក Craig Federighi ប្រធានផ្នែក Software របស់ Apple បាននិយាយនៅក្នុងបទសម្ភាសន៍ជាមួយកាសែត Wall Street Journal ថា “យើងសង្ឃឹមថារឿងនេះនឹងចេញមកកាន់តែច្បាស់ជាងនេះសម្រាប់មនុស្សគ្រប់គ្នា” ។
សូមបញ្ជាក់ថា ដំណើរការនៃប្រព័ន្ធស្វែងរករូបភាពដែលពាក់ព័ន្ធនឹងការរំលោភបំពានផ្លូវភេទកុមារ (CSAM) នោះគឺ៖ មុនពេលរូបភាពមួយត្រូវបានរក្សាទុកនៅលើ iCloud Photos បច្ចេកវិទ្យានេះនឹងស្វែងរករូបភាពដែលមានភាពដូចគ្នា ដែលប្រព័ន្ធ CSAM បានស្គាល់រួចមកហើយ។
ក្រុមហ៊ុន Apple បាននិយាយថា ប្រសិនបើការស្កេននោះបានរកឃើញរូបភាពដែលពាក់ព័ន្ធនឹងការរំលោភបំពានផ្លូវភេទកុមារ នោះអ្នកត្រួតពិនិត្យជាមនុស្ស នឹងធ្វើការវាយតម្លៃ និងរាយការណ៍អ្នកប្រើប្រាស់ទៅសមត្ថកិច្ច៕