تیمی از محققان امپریال کالج لندن روشی ساده را معرفی کردهاند که نشان میدهد از شناسایی توسط مکانیزمهای اسکن محتوای تصویری همانند CSAM شرکت اپل میتوان گریخت.
CSAM یا Child Sexual Abuse Material یک طرح پیشنهادی از سوی اپل میباشد که در ابتدای سال جاری مطرح شد. این طرح در نهایت به دنبال نارضایتی شدید مشتریان، گروههای حامی و محققان در ماه سپتامبر کنار گذاشته شد.
با این حال شرکت اپل هیچگاه این طرح را به طور کامل حذف نکرد و تنها عرضه آن را تا سال 2022 به تعویق انداخته و قول اصلاحیههای جدید به همراه شفافسازی روند توسعه این طرح را داده است.
ایده اصلی این است که هش تصاویری که به صورت خصوصی میان کاربران iOS رد و بدل میشود را با پایگاه دادهای از هشهای مرتبط با NCMEC و دیگر سازمانهای حمایت از کودکان مقایسه کنند. در صورتی که مطابقتی یافت شود، بازبین اپل به محتویات نگاه کرده و مسئولین را در خصوص سوءاستفاده از کودکان مطلع میکند و همه اینها بدون به خطر انداختن حریم خصوصی افرادی که تصاویر قانونی (غیر منطبق) را به اشتراک میگذارند، صورت میگیرد.
این سیستم به نظر عامل بسیار خوبی در مقابل محتویات آسیبرسان میباشد اما در اصل دریچهای به چرخهای از مشکلاتی است که تاکنون وجود نداشتهاند.
فریب دادن الگوریتم
تحقیقات محققان انگلیسی نشان داده است که نه CSAM شرکت اپل و نه هیچ یک از سیستمهای دیگر، نمیتوانند به طور موثر موضوعات و محتویات غیرقانونی را شناسایی کنند. همانطور که محققان نیز عنوان کردهاند، احتمال دارد که این الگوریتم شناسایی تا 99.9% موارد، بدون تغییر بصری تصاویر دچار فریب شود. به این شکل که مجرمان میتوانند فیلتر مخصوص هش را بر روی تصاویر اعمال کرده و در این صورت آنها را متفاوت از الگوریتم شناسایی نشان دهند، حتی اگر نتیجه برای چشم انسان کاملا یکسان به نظر برسد.
تحقیقات نشان میدهد که الگوریتم کنونی تفسیر هش، آنچنان پیشرفته نیست که بتواند در راهبردهای کاهش توزیع محتویات غیرقانونی موثر باشد. در نتیجه برای اینکه سیستمهای تشخیص تصویر غیرقانونی به شکل فعلیشان به طور قابل اعتماد کار کنند، مردم باید حریم خصوصی خود را کنار بگذارند و در حال حاضر هیچ راه فنی برای حل این مشکل وجود ندارد.