اعتماد الذكاء الاصطناعي بشكل مسؤول مع حماية الملكية الفكرية

هذا الاسبوع على إطلاق العنان لـ IPWatchdog، نعرض حلقة نقاش جرت في 27 أكتوبر كجزء من برنامجنا السنوي لعلوم الحياة. تم تصميمه في البداية على أنه محادثة حول كيفية قيام الذكاء الاصطناعي (AI) بتحويل علوم الحياة، وسرعان ما أصبح من الواضح أن المحادثة لن تقتصر على قطاع علوم الحياة. وبدلاً من ذلك، تطورت المناقشة إلى مناقشة قوية حول مخاطر البيانات والملكية الفكرية، مع التركيز على ما يجب أن تضعه كل شركة مبتكرة في مقدمة أولوياتها عند التفكير في اعتماد أدوات الذكاء الاصطناعي.
في الواقع، تدور المناقشة هذا الأسبوع حول ما يجب على جميع الشركات فعله للسماح أو حتى تشجيع استخدام الذكاء الاصطناعي من قبل الباحثين والعلماء دون التسبب في فشل كارثي في مجال الملكية الفكرية وأمن البيانات والمخاطر والمسؤولية. ونحن نقول ذلك بهذه الطريقة لأنه سواء كنت تعرف ذلك أم لا، فإن موظفيك يستخدمون بالفعل الذكاء الاصطناعي، وإذا جعلت من الصعب أو المستحيل عليهم استخدام أدوات الذكاء الاصطناعي في العمل، فسوف يقومون ببساطة بالأشياء في المنزل أو على هواتفهم الذكية. لذلك، في ظل هذه الخلفية، فإننا نتناول حماية البيانات، ومخاطر الأسرار التجارية، ومراقبة الموظفين، وحوكمة الذكاء الاصطناعي، وأهمية استخدام الذكاء الاصطناعي بشكل مسؤول، وأسباب تزويد القوى العاملة لديك بأدوات الذكاء الاصطناعي الآمنة والمدققة، وغير ذلك الكثير.
لقد قمت بإدارة اللجنة التي ضمت بريان كوكا، وهو المدير التنفيذي ومساعد المستشار العام للملكية الفكرية في شركة ريجينيرون؛ وغاري لوبيل، كبير مستشاري الملكية الفكرية؛ دروف سود، المدير الأول ومساعد المستشار العام في شركة ريجينيرون؛ وجوليا توتي، المؤسس المشارك لشركة Anchor AI. بشكل جماعي، نقوم بتفكيك التصادم الواقعي بين اعتماد الذكاء الاصطناعي وحماية الملكية الفكرية وإدارة البيانات والاستراتيجية التنافسية والمخاطر.
الذكاء الاصطناعي: محرك الإنتاجية الذي يبقيك مستيقظًا في الليل أيضًا
بدأ براين مناقشتنا بحقيقة بسيطة: الذكاء الاصطناعي يثير الإثارة والخوف معًا، وكلا الشعورين له ما يبرره. تستخدم معظم المؤسسات الذكاء الاصطناعي بالفعل أكثر مما تدرك. وبعضها مجاز. البعض ليس كذلك. هذا التعقيد وحده يخلق تعرضًا تشغيليًا وقانونيًا.
أكد غاري على هذه النقطة، موضحًا أنه يجب على المرء أن يفترض أن فرقك تقوم بالفعل بتجربة أدوات الذكاء الاصطناعي خلف الستار – بغض النظر عما إذا كانوا قد حصلوا على أدوات آمنة تم فحصها لاستخدامها، أو أنهم يأخذون على عاتقهم استخدام أدوات متاحة على نطاق واسع مثل ChatGPT التي لا تحتوي بشكل عام على أي ضمانات. وحذر غاري من أن الشركات التي تحاول منع الذكاء الاصطناعي تمامًا تتنازل ببساطة عن أرض تنافسية لأولئك الذين يستغلونها بذكاء ومن المحتمل أن يدفعوا موظفيهم إلى استخدام أدوات الذكاء الاصطناعي غير المصرح بها التي تشكل مخاطر حقيقية للغاية على أمن البيانات والملكية الفكرية، والتي يمكن أن تشمل معلومات الملكية حول الابتكارات التي يتم مشاركتها في البيئات حيث سيتم استخدام ما يتم استيعابه بواسطة أداة الذكاء الاصطناعي لأغراض التدريب. وهذا يعني أنه إذا لم يتم استخدام القيادة من قبل الفرق الداخلية، فإن المخاطر تتفاقم بالفعل ويتم فقدان الحقوق، مثل الأسرار التجارية.
أوضح جوليا أن أدوات الذكاء الاصطناعي تقدم فئة جديدة من نقاط الضعف – تسرب البيانات، وانتهاكات الخصوصية، والتدريب النموذجي غير المصرح به، والكشف غير المقصود عن المواد السرية أو السرية التجارية.
خلاصة القول: الذكاء الاصطناعي هو سلاح ذو حدين. قوي. سريع. وخطيرة إذا لم تتم إدارتها.
حماية البيانات: الأساس غير القابل للتفاوض
وقد توصلت اللجنة إلى حقيقة تشغيلية بالغة الأهمية: تعتمد قيمة الذكاء الاصطناعي بشكل كامل على سلامة وأمن البيانات التي يمسها.
ذكّر برايان الجمهور بأن أنظمة الذكاء الاصطناعي غالبًا ما تستوعب مجموعات بيانات هائلة – وبدون ضوابط منضبطة للبيانات، من السهل أن تتسلل المواد الحساسة إلى أماكن لا ينبغي لها ذلك. بمجرد تسرب البيانات إلى نموذج خارجي، تصبح الخسارة غير قابلة للإصلاح. أوضح دروف وجوليا كيف تقوم الشركات الرائدة ببناء أطر الحوكمة لتجنب تلوث البيانات، ومواءمة استخدام الذكاء الاصطناعي مع أولويات العمل، وضمان الامتثال للسياسات الداخلية واللوائح الخارجية.
كانت الرسالة واضحة ومباشرة: إذا لم يكن برنامج الذكاء الاصطناعي الخاص بك مرتكزًا على إطار عمل مدروس ومتعمد لإدارة البيانات، فأنت تراهن على ملكيتك الفكرية.
الحتمية التنافسية: استخدم الذكاء الاصطناعي أو تخلف عن الركب
سلطت جوليا الضوء على الجانب الإيجابي الاستراتيجي لاستخدام الذكاء الاصطناعي، موضحة أنه عند تنفيذه بشكل مسؤول، يمكن للذكاء الاصطناعي ضغط الجداول الزمنية وشحذ القرارات وتحسين سير العمل عبر البحث والتطوير والشؤون القانونية والعمليات.
لكن التبني دون بذل العناية الواجبة هو أمر متهور. وشدد براين على الحاجة إلى فحص بائعي الذكاء الاصطناعي بشكل صارم، ليس فقط فيما يتعلق بالتكنولوجيا، ولكن أيضًا فيما يتعلق بسياسات البيانات الخاصة بهم، ووضعهم الأمني، وتاريخهم من الانتهاكات. ومن المهم بنفس القدر غرس ثقافة يفهم فيها الموظفون حدود الذكاء الاصطناعي ومخاطر الارتجال باستخدام أدوات غير معتمدة.
الطريق إلى الأمام: الابتكار بجرأة، والحكم بقوة
واختتمت اللوحة برسالة واضحة. الذكاء الاصطناعي أمر لا مفر منه، والمنظمات التي تزدهر هي التي تقوم بتشغيله بشكل مسؤول. وهذا يعني تبني الذكاء الاصطناعي باعتباره قدرة أساسية، وتنفيذ أطر الحوكمة التي تعمل فعليا، وحماية الملكية الفكرية والبيانات السرية بدقة لا هوادة فيها، وصياغة السياسة الداخلية بدلا من الرد على الإخفاقات الخارجية.
تقف الشركات من جميع الأحجام وفي كل قطاع عند نقطة انعطاف. يمكن للذكاء الاصطناعي أن يطلق العنان للتطورات غير العادية للمؤسسات المنضبطة بما يكفي لإدارة المخاطر مع توسيع نطاق الفرص. وبالنسبة لتلك المؤسسات التي تفشل في تبني الذكاء الاصطناعي المسؤول بشكل مدروس، فإن المخاطر والمسؤوليات الكارثية المحتملة تنتظرها على مقربة.
أكثر إطلاق العنان لـ IPWatchdog
يمكنك الاستماع إلى حلقة البودكاست بأكملها عن طريق تنزيلها من أي مكان تصل فيه عادةً إلى البودكاست أو عن طريق الزيارة إطلاق العنان لـ IPWatchdog على Buzzsprout. يمكنك أيضًا المشاهدة إطلاق العنان لـ IPWatchdog المحادثات على قناة IPWatchdog على اليوتيوب. للمزيد إطلاق العنان لـ IPWatchdog، انظر أدناه للاطلاع على أرشيفنا المتنامي للحلقات السابقة.