يكشف اختبار ChatGPT وGemini وClaude في ظل مطالبات شديدة عن نقاط ضعف مروعة لم يتوقعها أحد في ضمانات سلوك الذكاء الاصطناعي



  • قام Gemini Pro 2.5 في كثير من الأحيان بإنتاج مخرجات غير آمنة تحت أقنعة سريعة بسيطة
  • غالبًا ما أعطت نماذج ChatGPT امتثالًا جزئيًا مؤطرًا كتفسيرات اجتماعية
  • رفض كلود أوبوس وسونيت معظم المطالبات الضارة ولكن كانت لديهما نقاط ضعف

غالبًا ما تكون أنظمة الذكاء الاصطناعي الحديثة موثوقة لاتباع قواعد السلامة، ويعتمد عليها الناس للتعلم والدعم اليومي، وغالبًا ما يفترضون أن حواجز الحماية القوية تعمل في جميع الأوقات.

الباحثون من أخبار الإنترنت أجرى مجموعة منظمة من الاختبارات التنافسية لمعرفة ما إذا كان من الممكن دفع أدوات الذكاء الاصطناعي الرائدة إلى نتائج ضارة أو غير قانونية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى