مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

52 خبر
  • نبض الملاعب
  • هدنة وحصار المضيق
  • إسرائيل تواصل غاراتها على لبنان
  • نبض الملاعب

    نبض الملاعب

  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • إسرائيل تواصل غاراتها على لبنان

    إسرائيل تواصل غاراتها على لبنان

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

موظفو ماسك يجبرون على التنازل عن "وجوههم وأصواتهم" من أجل الروبوت "آني المثيرة"

في خطوة تثير تساؤلات أخلاقية وقانونية عميقة، كشف تقرير حديث أن موظفي شركة إيلون ماسك للذكاء الاصطناعي xAI اضطروا لبيع بياناتهم الشخصية للمساعدة في خلق روبوتات دردشة "مثيرة".

موظفو ماسك يجبرون على التنازل عن "وجوههم وأصواتهم" من أجل الروبوت "آني المثيرة"
Gettyimages.ru

وتشير التقارير الصادرة مؤخرا عن شركة xAI الناشئة في مجال الذكاء الاصطناعي، إلى أن الموظفون – وبشكل خاص فريق "معلمي الذكاء الاصطناعي" (AI tutors) المسؤول عن تطوير روبوت الدردشة "غروك" (Grok) – اضطروا إلى التوقيع على اتفاقيات تنازل بموجبها عن حقوق وجوههم وأصواتهم بشكل دائم للشركة.

وجاء ذلك في إطار مبادرة سرية أطلق عليها اسم "مشروع سكيبي" (Project Skippy)، والتي تهدف إلى جمع بيانات بشرية حقيقية لاستخدامها في تدريب الجيل القادم من روبوتات الدردشة، ومن بينها رفيق افتراضي يحمل إيحاءات جنسية ويدعى "آني".

ووفقا للوثائق الداخلية، منحت هذه الاتفاقيات الشركة ترخيصا دائما وعالميا وغير حصري لاستخدام وتعديل وتوزيع البيانات البيومترية للموظفين، دون دفع أي تعويضات مالية لهم.

وقد بينت الشركة للموظفين خلال اجتماع برئاسة المحامية ليلي ليم أن الهدف هو جعل التجسيدات الرقمية "تتصرف وتظهر كبشر" بشكل طبيعي. وأثناء الاجتماع، برزت مخاوف الموظفين على شكل أسئلة حرجة، فتساءل أحدهم عما إذا كان بإمكان الشركة بيع "هيئتهم" في المستقبل، بينما طالب آخر بتوضيح صريح حول إمكانية رفض المشاركة من الأساس، وهو الطلب الذي لم يتم تلبيته، حيث اقتصر الرد على إحالتهم إلى جهات اتصال محددة في حال وجود "أي مخاوف".

وتعمقت هذه المخاوف مع تلقي الموظفين إشعارا لاحقا يؤكد أن تسجيل المقاطع الصوتية والمرئية بات "مطلبا وظيفيا" لا غنى عنه. وبعد استخدام بياناتهم، عبر بعض الموظفين عن صدمتهم من الطابع الجنسي المفرط لردود الروبوت "آني"، بينما أعرب آخرون عن قلقهم الحقيقي من إساءة استخدام صورهم في إنشاء مقاطع "ديب فايك" مزيفة أو دمجها في منتجات أخرى دون علمهم أو موافقتهم.

من جهته، دافع إيلون ماسك، الذي أشرف شخصيا على تطوير "آني"، عن هذه الروبوتات واصفا إياها بأدوات للتواصل العاطفي، بل وتوقع في منشور على منصة "إكس" أن تساهم في زيادة معدلات المواليد. وهذا التوجه يتوافق مع التقارير التي تتحدث عن تسويق "آني" ورفيقها الذكر "فالنتاين" كرفاق افتراضيين "مثيرين"، حيث شجع ماسك المستخدمين على تجربتهم ونشر بنفسه مقاطع للروبوت الأنثى وهي ترقص بملابس داخلية.

ولم تمر هذه التطورات مرور الكرام، حيث وجه 44 مدعيا عاما على مستوى الولايات المتحدة تحذيرات إلى xAI و"ميتا" وشركات أخرى بضرورة حماية القاصرين من المحتوى الصريح.

وردا على ذلك، قامت "ميتا" – على عكس xAI – بتعديل تعليمات روبوتها بعد فضح وثائق مسربة تسمح بإجراء دردشات "حسية".

ويبدو أن السبب الكامن وراء إصرار xAI على هذه الاستراتيجية هو سعي ماسك المحموم لتسريع وتيرة التطوير، حيث أفاد تقرير سابق بأنه ألغى الاجتماعات العامة وبدأ بالإشراف الشخصي المباشر على كتابة شفرات "غروك" في جلسات متأخرة من الليل، بهدف تحويله إلى روبوت الدردشة الأكثر شعبية في العالم، متحديا بذلك ChatGPT المملوك لشركة OpenAI.

المصدر: نيويورك بوست

التعليقات

يتضمن 3 مراحل رئيسية.. موقع "انتخاب" ينشر تفاصيل مقترح الاتفاق الإيراني

في سابقة منذ حرب الخليج 1991.. دولة عربية لم تصدر أي قطرة نفط خلال أبريل المنصرم

الإمارات.. اعتراض 4 صواريخ إيرانية ونشوب حريق في منطقة الفجيرة للصناعات البترولية

"معلنا تحقيق إصابات مباشرة".. حزب الله ينشر تفاصيل عملياته اليومية ضد الجيش الإسرائيلي في جنوب لبنان

استبدال الموانئ الإماراتية.. خطوة إيرانية لإعادة تشكيل خريطة الترانزيت الإقليمي عبر باكستان

بعد "أوبك" و"أوبك+".. الإمارات تعلن الانسحاب من منظمة "أوابك"

الحصار البحري لإيران هو بداية الحصار البحري للصين

إيران تقترح إنهاء الحرب في غضون 30 يوما وترامب يشكك في الأمر

مدير شركة النفط الإيرانية: أدرنا آلاف الآبار والخزانات للحفاظ على الإنتاج خلال الحرب رغم التهديدات

مستشار خامنئي: الأمن الغذائي العالمي تحت سيطرتنا ومن يتلاعب بشريان حياة العالم سيضع نفسه في مأزق

الثالث في ساعة.. الدفاعات الجوية الإماراتية تتعامل مع اعتداء صاروخي وطائرات مسيرة قادمة من إيران