محققان امنیت سایبری، آسیبپذیریهای حیاتی اجرای کد از راه دور را کشف کردند که موتورهای استنتاج هوش مصنوعی (AI) از جمله موتورهای Meta، Nvidia، Microsoft و پروژههای متنباز PyTorch مانند vLLM و SGLang را تحت تأثیر قرار میدهند.
بنابر گزارش محقق امنیتی Oligo: تمامی این نقصهای امنیتی به علت باگ مشترک، استفاده ناامن نادیده گرفته شده از ZeroMQ (ZMQ) و سریالزدایی pickle پایتون بازمیگردند. این باگ در هسته، به عنوان الگویی به نام ShadowMQ توصیف شد که در آن منطق سریالزدایی ناامن در نتیجه استفاده مجدد از کد، در چندین پروژه گسترش یافته و ناشی از آسیبپذیری با شناسه CVE-2024-50050 (امتیاز 6.3) در چارچوب Llama LLM Meta است که در اکتبر 2025 وصله شد و شامل استفاده از متد ()recv_pyobj در ZeroMQ برای سریالزدایی دادههای ورودی با استفاده از ماژول pickle پایتون بوده است.
این امر، همراه با این واقعیت که این چارچوب، سوکت ZeroMQ را از طریق شبکه در معرض دید قرار میداد، دری را برای سناریویی باز کرد که در آن مهاجم میتواند با ارسال دادههای مخرب برای سریالزدایی، کد دلخواه را اجرا کند. این نقص همچنین در کتابخانه پایتون pyzmq مورد توجه قرار گرفته است. شرکت Oligo، الگوی مشابهی را در چارچوبهای استنتاج دیگر مانند NVIDIA TensorRT-LLM، Microsoft Sarathi-Serve، Modular Max Server، vLLM و SGLang شناسایی و اعلام کرد: «آنها شامل الگوهای ناامن تقریباً یکسان، سریالزدایی pickle بر روی سوکتهای TCP ZMQ احراز هویت نشده بودند که در حداقل چند مورد، نتیجه کپی-پیست مستقیم کد بود.» به نقصهای مذکور شناسههای زیر اختصاص داده شده است:
- CVE-2025-30165 (امتیاز 8.0) در vLLM (رفع نشد، اما با تغییر به موتور V1 به طور پیشفرض برطرف شده است.)
- CVE-2025-23254 (امتیاز 8.8) در NVIDIA TensorRT-LLM (در نسخه 0.18.2 رفع شد.)
- CVE-2025-60455 (امتیاز نامشخص) در Modular Max Server (رفع شد.)
- Sarathi-Serve (هنوز رفع نشده است.)
- SGLang (رفعهای ناقص پیادهسازی کرد.)
با توجه به اینکه موتورهای استنتاج به عنوان مولفه حیاتی در زیرساختهای هوش مصنوعی عمل میکنند، نفوذ موفق به گرهای واحد میتواند به اجرای کد دلخواه روی زیرشاخه، ارتقا سطح دسترسی، سرقت مدل و حتی پیلودهای مخربی مانند ماینرهای رمز ارز برای سود مالی دراپ منجر شود.
https://thehackernews.com/2025/11/researchers-find-serious-ai-bugs.html
