نقص‌های امنیتی در ابزارهای محبوب ML، امکان هایجک سرور و ارتقا دسترسی را فراهم می‌کنند

security news

محققان امنیت سایبری نزدیک به دوجین نقص امنیتی را در 15 پروژه منبع باز مرتبط با یادگیری ماشین (ML) کشف کرده‌اند.

شرکت امنیت زنجیره تامین نرم افزار JFrog در تحلیلی گفت: این شامل آسیب‌پذیری‌هایی است که هم در سمت سرور و هم در سمت کلاینت کشف شده‌اند. نقص‌های سمت سرور “به مهاجمان اجازه می‌دهد تا سرورهای مهم سازمان مانند رجیستری مدل ML، پایگاه‌های داده ML و ML pipeline را هک کنند. آسیب‌پذیری‌هایی که در Weave، ZenML، Deep Lake، Vanna.AI و Mage AI کشف شده‌اند، به زیرمجموعه‌های گسترده‌تری تقسیم شده‌اند که امکان هایجک از راه دور رجیستری مدل، چارچوب‌های پایگاه داده ML و در اختیار گرفتن ML pipeline را فراهم می‌کنند.

شرح مختصری از نقص‌های شناسایی شده در زیر آمده است:

CVE-2024-7340 (امتیاز CVSS: 8.8) آسیب‌پذیری پیمایش دایرکتوری در جعبه ابزار Weave ML (در نسخه 0.50.8 رفع شده است)
◽آسیب‌پذیری کنترل دسترسی نامناسب در چارچوب ZenML MLOps (بدون شناسه CVE)
CVE-2024-6507 (امتیاز CVSS: 8.1) آسیب‌پذیری تزریق فرمان در پایگاه داده مبتنی بر هوش مصنوعی Deep Lake   (در نسخه 3.9.11 رفع شده است)
CVE-2024-5565 (امتیاز CVSS: 8.1) آسیب‌پذیری تزریق سریع در کتابخانه Vanna.AI
CVE-2024-45187 (امتیاز CVSS: 7.1) آسیب‌پذیری تخصیص سطح دسترسی نادرست به کاربران مهمان در چارچوب Mage AI
CVE-2024-45188، CVE-2024-45189 و CVE-2024-45190 (امتیاز CVSS: 6.5)، آسیب‌پذیری‌های پیمایش مسیرهای متعدد در Mage AI

https://thehackernews.com/2024/11/security-flaws-in-popular-ml-toolkits.html