أخبار التكنولوجيا

يواجه المستخدمون البشريون خيارًا جديدًا – إلغاء الاشتراك أو مشاركة بياناتك لتدريب الذكاء الاصطناعي


تقوم الأنثروبور بإجراء بعض التغييرات الكبيرة على كيفية معالجة بيانات المستخدم ، مما يتطلب من جميع مستخدمي كلود أن يقرروا بحلول 28 سبتمبر ما إذا كانوا يريدون استخدام محادثاتهم لتدريب نماذج الذكاء الاصطناعي. في حين أن الشركة وجهتنا إلى مدونتها على تغيير السياسة عندما سئل عن ما الذي دفع هذه الخطوة ، فقد قمنا بتشكيل بعض النظريات الخاصة بنا.

لكن أولاً ، ما يتغير: في السابق ، لم تستخدم الأنثروبور بيانات الدردشة الاستهلاكية للتدريب على النماذج. الآن ، تريد الشركة تدريب أنظمة AI على محادثات المستخدم وجلسات الترميز ، وقالت إنها تمتد إلى الاحتفاظ بالبيانات إلى خمس سنوات لأولئك الذين لا يخترقون.

هذا تحديث ضخم. في السابق ، تم إخبار مستخدمي المنتجات الاستهلاكية للأنثروبولوجيا بأن مطالباتهم ومخرجاتهم سيتم حذفها تلقائيًا من النهاية الخلفية للأنثروبولوجيا في غضون 30 يومًا “ما لم يتم الاحتفاظ بمخرجات ومخرجات للمستخدمين لمدة تصل إلى عامين.

من قبل المستهلك ، نعني أن السياسات الجديدة تنطبق على مستخدمي Claude Free و Pro و Max ، بما في ذلك أولئك الذين يستخدمون Claude Code. لن يتأثر عملاء الأعمال الذين يستخدمون Claude Gov أو Claude for Work أو Claude for Education أو API ، وهو ما يحمي Openai بالمثل عملاء المؤسسات من سياسات التدريب على البيانات.

فلماذا يحدث هذا؟ في هذا المنشور حول التحديث ، تقوم بإطارات الإنسان التغييرات حول اختيار المستخدم ، قائلاً إنه من خلال عدم إلغاء الاشتراك ، سيساعدنا المستخدمون على تحسين سلامة النماذج ، وجعل أنظمتنا لاكتشاف المحتوى الضار أكثر دقة وأقل عرضًا للمحادثات غير الضارة. ” سيساعد المستخدمون أيضًا أن تساعد نماذج Claude المستقبلية على التحسن في مهارات مثل الترميز والتحليل والتفكير ، مما يؤدي في النهاية إلى نماذج أفضل لجميع المستخدمين. “

باختصار ، ساعدنا في مساعدتك. ولكن الحقيقة الكاملة ربما تكون أقل أنانية.

مثل كل شركة نموذجية لغوية كبيرة أخرى ، تحتاج الأنثروبور إلى بيانات أكثر مما تحتاج إلى أن يكون لدى الأشخاص مشاعر غامضة حول علامتها التجارية. يتطلب نماذج تدريب الذكاء الاصطناعي كميات هائلة من بيانات المحادثة عالية الجودة ، وينبغي أن يوفر الوصول إلى ملايين التفاعلات Claude نوع المحتوى في العالم الحقيقي الذي يمكن أن يحسن المواقع التنافسية للأنثروبور ضد المنافسين مثل Openai و Google.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

إلى جانب الضغوط التنافسية لتطوير الذكاء الاصطناعى ، يبدو أن التغييرات تعكس أيضًا تحولات في الصناعة أوسع في سياسات البيانات ، حيث تواجه شركات مثل الأنثروبور و Openai التدقيق المتزايد على ممارسات الاحتفاظ بالبيانات. على سبيل المثال ، يحارب Openai حاليًا أمرًا من المحكمة يجبر الشركة على الاحتفاظ بجميع محادثات ChatGpt المستهلك إلى أجل غير مسمى ، بما في ذلك الدردشات المحذوفة ، بسبب دعوى قضائية رفعتها صحيفة نيويورك تايمز وغيرها من الناشرين.

في يونيو ، وصف Openai Coo Brad Lightcap هذا “الطلب الكامل وغير الضروري” والذي “يتعارض بشكل أساسي مع التزامات الخصوصية التي قدمناها لمستخدمينا”. يؤثر أمر المحكمة على مستخدمي chatgpt مجانًا ، بالإضافة إلى Pro ، ومستخدمي الفريق ، على الرغم من أن عملاء المؤسسات وأولئك الذين لديهم اتفاقيات الاحتفاظ بالبيانات الصفرية لا تزال محمية.

الأمر المثير للقلق هو مقدار الالتباس الذي تخلقه كل سياسات الاستخدام المتغيرة للمستخدمين ، ويظل الكثير منهم غافلين عليهم.

في الإنصاف ، كل شيء يتحرك بسرعة الآن ، لذلك مع تغير التكنولوجيا ، لا بد أن تتغير سياسات الخصوصية. لكن العديد من هذه التغييرات هي شاملة إلى حد ما وذكرها بشكل عابر فقط وسط أخبار الشركات الأخرى. (لا تفكر في أن تغييرات سياسة يوم الثلاثاء لمستخدمي الأنثروبور كانت أخبارًا كبيرة جدًا بناءً على المكان الذي وضعت فيه الشركة هذا التحديث على صفحة الصحافة الخاصة بها).

لكن العديد من المستخدمين لا يدركون أن الإرشادات التي وافقوا عليها قد تغيرت لأن التصميم يضمنها عمليا. يستمر معظم مستخدمي ChatGPT في النقر على تبديل “حذف” لا يحذف أي شيء تقنيًا. وفي الوقت نفسه ، فإن تنفيذ الأنثروبور لسياستها الجديدة يتبع نمطًا مألوفًا.

كيف ذلك؟ سيختار المستخدمون الجدد تفضيلاتهم أثناء الاشتراك ، لكن المستخدمين الحاليين يواجهون نافذة منبثقة مع “تحديثات لشروط وسياسات المستهلكين” في نص كبير وزر “قبول” أسود بارز مع مفتاح تبديل أصغر بكثير لتدريب أذونات التدريب أدناه في الطباعة الأصغر-وتعيين تلقائيًا على “ON”.
كما لوحظت في وقت سابق اليوم من قبل The Verge ، يثير التصميم مخاوف من أن المستخدمين قد ينقرون بسرعة على “قبول” دون ملاحظة أنهم يوافقون على مشاركة البيانات.

وفي الوقت نفسه ، لا يمكن أن تكون مخاطر وعي المستخدم أعلى. حذر خبراء الخصوصية منذ فترة طويلة من أن التعقيد المحيط بـ AI يجعل موافقة المستخدم ذات مغزى لا يمكن تحقيقها تقريبًا. بموجب إدارة بايدن ، تدخلت لجنة التجارة الفيدرالية ، وحذرت من أن شركات الذكاء الاصطناعى تخاطر بإنفاذها إذا شاركت في “تغيير شروط الخدمة أو سياسة الخصوصية بشكل خفي ، أو دفن الإفصاح وراء الارتباطات التشعبية ، أو في Legalese ، أو في الطباعة الدقيقة”.

ما إذا كانت اللجنة – التي تعمل الآن مع ثلاثة فقط من مفوضيها الخمسة – لا تزال تراقب هذه الممارسات اليوم هو سؤال مفتوح ، وسألنا مباشرة إلى FTC.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى