تضيف كاليفورنيا حواجز الحماية إلى الدردشات الطبية المدعومة بالذكاء الاصطناعي


تنظيم سلوك الذكاء الاصطناعي، وليس نظرية الذكاء الاصطناعي

يشترك القانونان الجديدان، SB 243 وAB 489، في افتراض مشترك: أن أنظمة الذكاء الاصطناعي ستواجه حالات حافة. ويرى الخبراء والمشرعون مشكلات وظيفية حيث تنحرف المحادثات، وسيقوم المستخدمون بطرح أسئلة عاطفية أو طبية أو عالية المخاطر في سياقات لم يتم تصميم النظام لمعالجتها.

السياسات الثابتة المكتوبة قبل أشهر لن تغطي كل السيناريوهات. لذا، فبدلاً من حظر الذكاء الاصطناعي التحادثي، يتسم النهج الذي تتبعه كاليفورنيا بالواقعية. إذا كان نظام الذكاء الاصطناعي يؤثر على القرارات أو يبني علاقة عاطفية مع المستخدمين، فيجب أن يكون لديه ضمانات تصمد في الإنتاج، وليس فقط في التوثيق. وهذا هو المجال الذي تكون فيه العديد من المنظمات الأقل استعدادًا.

AB 489: عندما يبدو الذكاء الاصطناعي وكأنه طبيب

يركز AB 489 على خطر مختلف: أنظمة الذكاء الاصطناعي التي تنطوي على الخبرة الطبية دون امتلاكها بالفعل. العديد من برامج الدردشة المتعلقة بالصحة والعافية لا تدعي صراحةً أنها أطباء. وبدلاً من ذلك، يعتمدون على اللهجة أو المصطلحات أو إشارات التصميم التي تبدو سريرية وموثوقة. بالنسبة للمستخدمين، غالبًا ما تكون هذه الفروق غير مرئية أو غير قابلة للفك.

بدءًا من 1 يناير، يحظر AB 489 على أنظمة الذكاء الاصطناعي استخدام الألقاب أو اللغة أو التمثيلات الأخرى التي تشير إلى خبرة طبية مرخصة ما لم تكن هذه الخبرة متضمنة بشكل حقيقي.

إن وصف المخرجات بأنها “على مستوى الطبيب” أو “موجهة من قبل الطبيب” دون دعم واقعي قد يشكل انتهاكًا. وحتى الإشارات الصغيرة التي يمكن أن تضلل المستخدمين قد تعتبر بمثابة انتهاكات، مع توسيع نطاق التنفيذ ليشمل مجالس الترخيص المهنية. بالنسبة للفرق التي تعمل على بناء الذكاء الاصطناعي الموجه للمريض أو المصاحب للصحة، فإن هذا يخلق تحديًا هندسيًا مألوفًا: تطوير التكنولوجيا التي تسير على خط رفيع بين كونها غنية بالمعلومات ومفيدة مقابل موثوقة. والآن، بموجب AB 489، أصبح هذا الخط مهمًا.

يكتشف: فيما يلي الاتجاهات الأربعة لتقنية الذكاء الاصطناعي التي يجب مراقبتها في عام 2026.

SB 243: عندما يصبح Chatbot رفيقًا

يستهدف قانون SB 243، الذي تم التوقيع عليه في أكتوبر 2025، ما يسميه المشرعون “الذكاء الاصطناعي المصاحب”، أو الأنظمة المصممة لإشراك المستخدمين بمرور الوقت بدلاً من الإجابة على سؤال معاملات واحد. يمكن أن تشعر هذه الأنظمة بالمثابرة والاستجابة والتناغم العاطفي. وبمرور الوقت، قد يتوقف المستخدمون عن اعتبارها أدوات ويبدأون في التعامل معها على أنها حضور. وهذا هو بالضبط الخطر الذي يحاول SB 243 معالجته.

يحدد القانون ثلاثة توقعات أساسية.

أولا، يجب أن يكون الكشف عن الذكاء الاصطناعي مستمرا، وليس تجميليا. إذا كان بإمكان شخص عاقل أن يعتقد أنه يتفاعل مع إنسان، فيجب على النظام أن يكشف بوضوح أنه ذكاء اصطناعي، ليس مرة واحدة فقط، ولكن بشكل متكرر خلال محادثات أطول. بالنسبة للقاصرين، يذهب القانون إلى أبعد من ذلك، حيث يتطلب تذكيرًا وتشجيعًا متكررًا لأخذ فترات راحة، بهدف صراحة قطع الانغماس قبل أن يتحول إلى اعتماد.

ثانياً، يفترض القانون أن بعض المحادثات سوف تتحول إلى جدية. عندما يعبر المستخدمون عن أفكار انتحارية أو نية لإيذاء أنفسهم، فمن المتوقع أن تتعرف الأنظمة على هذا التحول وتتدخل. وهذا يعني وقف أنماط المحادثة الضارة، وإثارة استجابات محددة مسبقًا وتوجيه المستخدمين إلى دعم الأزمات في العالم الحقيقي. ويجب توثيق هذه البروتوكولات وتنفيذها عمليًا والإبلاغ عنها من خلال الإفصاحات المطلوبة.

ثالثاً، لا تتوقف المساءلة عند الإطلاق. واعتبارًا من عام 2027، يجب على المشغلين الإبلاغ عن عدد مرات تفعيل هذه الضمانات وكيفية أدائها عمليًا. يقدم SB 243 أيضًا حق التصرف الخاص، مما يزيد بشكل كبير من مخاطر الأنظمة التي تفشل تحت الضغط.

والرسالة من هذه الحوكمة واضحة: النوايا الحسنة لا تكفي إذا قال الذكاء الاصطناعي الشيء الخطأ في اللحظة الخطأ.

انقر فوق لافتة أدناه للتسجيل في هيلثتكالنشرة الإخبارية الأسبوعية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى