قابلیت جنجالی اسکن CSAM اپل 

Apple’s CSAM scanning

تیمی از محققان امپریال کالج لندن روشی ساده را معرفی کرده‌اند که نشان می‌دهد از شناسایی توسط مکانیزم‌های اسکن محتوای تصویری همانند CSAM شرکت اپل می‌توان گریخت.

CSAM یا Child Sexual Abuse Material یک طرح پیشنهادی از سوی اپل می‌باشد که در ابتدای سال جاری مطرح شد. این طرح در نهایت به دنبال نارضایتی شدید مشتریان، گروه‌های حامی و محققان در ماه سپتامبر کنار گذاشته شد.

با این حال شرکت اپل هیچگاه این طرح را به طور کامل حذف نکرد و تنها عرضه آن را تا سال 2022 به تعویق انداخته و قول اصلاحیه‌های جدید به همراه شفاف‌سازی روند توسعه این طرح را داده است.

ایده اصلی این است که هش تصاویری که به صورت خصوصی میان کاربران iOS رد و بدل می‌شود را با پایگاه داده‌ای از هش‌های مرتبط با NCMEC و دیگر سازمان‌های حمایت از کودکان مقایسه کنند. در صورتی که مطابقتی یافت شود، بازبین اپل به محتویات نگاه کرده و مسئولین را در خصوص سوء‌استفاده از کودکان مطلع می‌کند و همه اینها بدون به خطر انداختن حریم خصوصی افرادی که تصاویر قانونی (غیر منطبق) را به اشتراک می‌گذارند، صورت می‌گیرد.

این سیستم به نظر عامل بسیار خوبی در مقابل محتویات آسیب‌رسان می‌باشد اما در اصل دریچه‌ای به چرخه‌ای از مشکلاتی است که تاکنون وجود نداشته‌اند.

فریب دادن الگوریتم

تحقیقات محققان انگلیسی نشان داده است که نه CSAM شرکت اپل و نه هیچ‌ یک از سیستم‌های دیگر، نمی‌توانند به طور موثر موضوعات و محتویات غیرقانونی را شناسایی کنند. همانطور که محققان نیز عنوان کرده‌اند، احتمال دارد که این الگوریتم شناسایی تا 99.9% موارد، بدون تغییر بصری تصاویر دچار فریب شود. به این شکل که مجرمان می‌توانند فیلتر مخصوص هش را بر روی تصاویر اعمال کرده و در این صورت آنها را متفاوت از الگوریتم شناسایی نشان دهند، حتی اگر نتیجه برای چشم انسان کاملا یکسان به نظر برسد.

تحقیقات نشان می‌دهد که الگوریتم کنونی تفسیر هش، آنچنان پیشرفته نیست که بتواند در راهبردهای کاهش توزیع محتویات غیرقانونی موثر باشد. در نتیجه برای اینکه سیستم‌های تشخیص تصویر غیرقانونی به شکل فعلی‌شان به طور قابل اعتماد کار کنند، مردم باید حریم خصوصی خود را کنار بگذارند و در حال حاضر هیچ راه فنی برای حل این مشکل وجود ندارد.