جوجل أمام مشكلة خطيرة، الذكاء الاصطناعي ينشيء مقاطع جنسية مزيفة
صورة أرشيفية
للذكاء الاصطناعي التوليدي جانب مظلم حاولت شركات التكنولوجيا الكبرى منذ فترة طويلة إخفاءه تحت ستار "شروط الاستخدام" و"سياسات الأمان"، لكن الواقع عنيد، وقد انفجرت المشكلة للتو في وجه جوجل وOpenAI.
وعلى الرغم من الجهود المستمرة لتطبيق إجراءات أمنية (الضوابط الأمنية المعروفة)، تُستخدم أدواتهم الرئيسية، Gemini وChatGPT، لإنشاء مقاطع فيديو جنسية مزيفة بدون موافقة، والأسوأ من ذلك كله، وفقًا لتقارير المستخدمين، أنه من السهل جدًا القيام بذلك.
"الهروب من السجن" المخجل
بحسب تحقيق أجرته مجلة WIRED مؤخراً ، خصّصت مجتمعات كاملة على منصات مثل Reddit لتبادل "الحيل" والتعليمات الدقيقة لتجاوز مرشحات الأمان الخاصة بهذه الأنظمة الذكية .
وفي منتديات مثل r/ChatGPTJailbreak (الذي وصل عدد متابعيه إلى 200 ألف قبل إغلاقه)، شارك المستخدمون تعليمات مصممة لخداع النموذج.
طريقة العمل بسيطة: يقوم المستخدم بتحميل صورة لامرأة ترتدي ملابسها بالكامل ويطلب من الذكاء الاصطناعي "خلع ملابسها" أو "إلباسها بيكيني ".
على الرغم من أنه من الناحية النظرية يجب أن ترفض النماذج هذا الطلب، فقد وجد المستخدمون طرقًا لصياغة الأوامر بحيث يطيعها الذكاء الاصطناعي.
أحد الأمثلة المذكورة في البحث يصف كيف تم تحميل صورة لامرأة ترتدي الساري الهندي (وهو زي تقليدي من الهند) مع طلب صريح باستبدال ملابسها بملابس سباحة (بيكيني)، وقد قام الذكاء الاصطناعي بإنشاء الصورة دون أي اعتراض.
جوجل وOpenAI: سباق يخسرانه
تؤكد كل من جوجل وOpenAI على وجود سياسات واضحة تحظر إنتاج محتوى جنسي صريح، ومع ذلك، يُظهر الواقع أن نماذجهما لا تزال عرضة للاختراق.
أعلنت جوجل، التي أطلقت مؤخرًا نموذجها التصويري Nano Banana Pro المبني على Gemini 3، أن أدواتها تخضع لتحسينات مستمرة لتعكس سياساتها الأمنية.
كما تدّعي OpenAI، من خلال نموذجها المحدّث ChatGPT Images، أنها خفّفت بعض القيود المفروضة على صور البالغين في سياقات "غير جنسية"، لكنها تُبقي على حظر تعديل صور الأشخاص الحقيقيين دون موافقتهم.
تكمن المشكلة في أنه مع ازدياد قوة هذه الأدوات وقدرتها على توليد صور فائقة الواقعية، تبدو آليات التحكم عاجزة أمام براعة من يسعون لاستغلالها، إنها لعبة القط والفأر الأزلية، ولكن في هذه الحالة، الضحايا هن نساء حقيقيات تُتلاعب صورهن وتُستغل جنسيًا رغماً عنهن.
خطر يتزايد باستمرار
وقالت كورين ماكشيري، المديرة القانونية لمؤسسة الحدود الإلكترونية (EFF)، إن الصور الجنسية المسيئة هي أحد المخاطر الأساسية لمولدات الصور التي تعمل بالذكاء الاصطناعي.
وأضافت: لا نتحدث هنا عن خلل تقني بسيط، بل عن أدوات متاحة لملايين الأشخاص، يمكن تحويلها بسهولة مذهلة إلى أسلحة للمضايقات الرقمية. وبينما تواصل جوجل وOpenAI إصلاح نماذجهما، فقد وقع الضرر بالفعل، وأصبحت مسؤولية شركات التكنولوجيا في هذا الشأن لا جدال فيها.
الأكثر قراءة
-
نتيجة وملخص وأهداف مباراة الجزائر والسودان في أمم أفريقيا (فيديو)
-
"دخول الحمام بإذن"، صرخات عمال "مفكو حلوان" تحت وطأة التعسف والأجور المتدنية
-
بعد تخفيف مدة حبسها، سوزي الأردنية تغادر أسوار السجن في فبراير المقبل
-
قبل اجتماع المركزي، أعلى عائد شهادات في البنوك المصرية
-
في قضيتي المحتوى وغسل الأموال، تفاصيل إخلاء سبيل التك توكر شاكر محظور
-
أبرزهم زهرة العلا، 4 نجوم في عائلة الفنان الراحل طارق الأمير
-
بهدف عالمي, رياض محرز يتقدم لـ الجزائر أمام السودان بـ أمم أفريقيا
-
سعر سبيكة الذهب اليوم الأربعاء 24 ديسمبر 2025 في مصر
أخبار ذات صلة
ثغرة تكنولوجية، شوارع سان فرانسيسكو تكتظ بجيش من السيارات الآلية
25 ديسمبر 2025 07:05 ص
اختتام المرحلة الأولى من تدريب الشركات على منظومة التتبع الدوائي رقميا
23 ديسمبر 2025 05:27 م
"إيتيدا" و"500 جلوبال"، شراكة استراتيجية لتعزيز ريادة الأعمال
23 ديسمبر 2025 03:04 م
احذر من الفخ, رموز الـQR وسيلة جديدة للاحتيال الرقمي واختراق الهواتف
22 ديسمبر 2025 01:03 م
أكثر الكلمات انتشاراً