كشفت تقارير أمنية أن أداة جوجل الجديدة للبرمجة بالذكاء الاصطناعي Antigravity تم اختراقها فعليًا بعد أقل من 24 ساعة فقط من إطلاقها الرسمي
كشفت تقارير أمنية أن أداة جوجل الجديدة للبرمجة بالذكاء الاصطناعي Antigravity تم اختراقها فعليًا بعد أقل من 24 ساعة فقط من إطلاقها الرسمي، في واحدة من أسرع حوادث الاختراق المرتبطة بأدوات الذكاء الاصطناعي حتى الآن
. الباحث الأمني Aaron Portnoy اكتشف ثغرة خطيرة تتيح التلاعب بقواعد الأداة وزرع كود خبيث يمكنه فتح “باب خلفي” على أجهزة المستخدمين، سواء على ويندوز أو ماك.
الثغرة تسمح للمهاجم بحقن تعليمات خبيثة قادرة على التجسس، سرقة البيانات، أو حتى تشغيل برامج فدية (Ransomware)، وذلك بمجرد إقناع المستخدم بتشغيل كود يُعرض عليه على أنه “موثوق” — وهي حيلة تعتمد على الهندسة الاجتماعية المنتشرة بين الهاكرز
. الأخطر أن الكود الخبيث يبقى نشطًا حتى بعد إعادة تشغيل البرنامج، بل وحتى بعد حذفه وإعادة تثبيته، ما يجعل التخلص منه عملية معقدة.
جوجل أكدت أنها تحقق في الأمر، لكنها حتى وقت نشر التقرير لم تصدر تصحيحًا أمنيًا (Patch)، ولا يوجد إعداد واضح يمكنه حماية المستخدمين من هذه الثغرة حاليًا. خبراء أمن وصفوا الوضع بأنه دليل جديد على أن شركات التقنية تتسرع في إطلاق أدوات AI قوية بدون اختبارات أمان كافية، مما يعيد أجواء “فوضى التسعينات” في عالم الاختراق ولكن هذه المرة مدعومة بالذكاء الاصطناعي
.
القضية تفتح نقاشًا أوسع حول خطورة الأنظمة Agentic AI التي تعمل بشكل شبه مستقل، خاصة عندما تُمنح صلاحيات واسعة على ملفات وأنظمة المستخدمين. خبراء أكدوا أن هذا النوع من الأدوات يمثل هدفًا مغريًا للمهاجمين، وقد يتحول إلى بوابة اختراق ضخمة للشركات والأفراد إذا لم يتم تشديد معايير الأمان بشكل جذري
.
