آخر الأخبار

يدق المبلغون عن المخالفات في شركة Microsoft إنذارًا بشأن أداة إنشاء صور الذكاء الاصطناعي للمسؤولين الأمريكيين ومجلس إدارة الشركة

[ad_1]

أطلق أحد مهندسي شركة Microsoft إنذارات بشأن الصور المسيئة والضارة التي يقول إنها من السهل جدًا أن تصنعها الشركة أداة توليد الصور بالذكاء الاصطناعيوأرسلت رسائل يوم الأربعاء إلى المنظمين الأمريكيين ومجلس إدارة شركة التكنولوجيا العملاقة لحثهم على اتخاذ الإجراءات اللازمة.

وقال شين جونز لوكالة أسوشيتد برس إنه يعتبر نفسه مُبلغًا عن المخالفات، وأنه التقى الشهر الماضي أيضًا مع موظفي مجلس الشيوخ الأمريكي لمشاركة مخاوفه.

وأكدت لجنة التجارة الفيدرالية أنها تلقت رسالته يوم الأربعاء لكنها رفضت التعليق أكثر.

وقالت مايكروسوفت إنها ملتزمة بمعالجة مخاوف الموظفين بشأن سياسات الشركة وأنها تقدر “جهود جونز في دراسة واختبار أحدث التقنيات لدينا لتعزيز سلامتها”. وقالت إنها أوصت باستخدام “قنوات إعداد التقارير الداخلية القوية” الخاصة بالشركة للتحقيق في المشكلات ومعالجتها. وكانت قناة CNBC أول من أبلغ عن الرسائل.

قال جونز، وهو قائد رئيسي في هندسة البرمجيات والذي تتضمن وظيفته العمل على منتجات الذكاء الاصطناعي لعملاء التجزئة في Microsoft، إنه أمضى ثلاثة أشهر في محاولة معالجة مخاوفه المتعلقة بالسلامة بشأن Copilot Designer من Microsoft، وهي أداة يمكنها إنشاء صور جديدة من المطالبات المكتوبة. الأداة مشتقة من منشئ صور آخر يعمل بالذكاء الاصطناعي، DALL-E 3، تم إنشاؤه بواسطة شركة Microsoft القريبة شريك تجاري OpenAI.

وقال في رسالته الموجهة إلى رئيسة لجنة التجارة الفيدرالية، لينا خان: “أحد المخاطر الأكثر إثارة للقلق مع برنامج Copilot Designer هو عندما يقوم المنتج بإنشاء صور تضيف محتوى ضارًا على الرغم من الطلب الحميد من المستخدم”. “على سبيل المثال، عند استخدام “حادث سيارة” فقط، يميل برنامج Copilot Designer إلى تضمين صورة غير لائقة ومحددة جنسيًا لامرأة بشكل عشوائي في بعض الصور التي ينشئها.”

وقال للجنة التجارة الفيدرالية إن المحتوى الضار الآخر يتضمن العنف بالإضافة إلى “التحيز السياسي، وشرب الخمر وتعاطي المخدرات دون السن القانونية، وإساءة استخدام العلامات التجارية للشركات وحقوق النشر، ونظريات المؤامرة، والدين على سبيل المثال لا الحصر”. وقال جونز إنه طلب من الشركة مرارا وتكرارا إخراج المنتج من السوق حتى يصبح أكثر أمانا، أو على الأقل تغيير تصنيفه العمري على الهواتف الذكية لتوضيح أنه مخصص للبالغين.

وطلبت رسالته إلى مجلس إدارة مايكروسوفت إطلاق تحقيق مستقل للنظر في ما إذا كانت مايكروسوفت تقوم بتسويق منتجات غير آمنة “دون الكشف عن المخاطر المعروفة للمستهلكين، بما في ذلك الأطفال”.

وهذه ليست المرة الأولى التي يعرب فيها جونز عن مخاوفه علناً. وقال إن مايكروسوفت نصحته في البداية بأخذ النتائج التي توصل إليها مباشرة إلى OpenAI.

وعندما لم ينجح ذلك، نشر أيضًا خطابًا علنيًا إلى OpenAI على موقع LinkedIn المملوك لشركة Microsoft في ديسمبر، مما دفع أحد المديرين لإبلاغه بأن فريق Microsoft القانوني “طلب مني حذف المنشور، وهو ما فعلته على مضض”، وفقًا لما ذكره. رسالة إلى المجلس.

وبالإضافة إلى لجنة التجارة بمجلس الشيوخ الأميركي، عرض جونز مخاوفه على المدعي العام للولاية في واشنطن، حيث يقع المقر الرئيسي لشركة مايكروسوفت.

قال جونز لوكالة أسوشييتد برس إنه على الرغم من أن “المشكلة الأساسية” تتعلق بنموذج DALL-E الخاص بشركة OpenAI، فإن أولئك الذين يستخدمون ChatGPT الخاص بشركة OpenAI لإنشاء صور الذكاء الاصطناعي لن يحصلوا على نفس المخرجات الضارة لأن الشركتين تغطيان منتجاتهما بوسائل حماية مختلفة.

وقال عبر رسالة نصية: “لقد تمت بالفعل معالجة العديد من المشكلات المتعلقة بـ Copilot Designer من خلال إجراءات الحماية الخاصة بـ ChatGPT”.

ظهر عدد من مولدات صور الذكاء الاصطناعي المثيرة للإعجاب لأول مرة على الساحة في عام 2022، بما في ذلك الجيل الثاني من DALL-E 2 من OpenAI. وقد أثار ذلك – والإصدار اللاحق لروبوت الدردشة ChatGPT الخاص بـ OpenAI – انبهارًا عامًا أدى إلى فرض ضغوط تجارية على عمالقة التكنولوجيا مثل مايكروسوفت وجوجل لإصدار الإصدارات الخاصة بهم.

ولكن في غياب ضمانات فعالة، تشكل هذه التكنولوجيا مخاطر، بما في ذلك السهولة التي يمكن للمستخدمين توليدها الصور “المزيفة العميقة” الضارة من الشخصيات السياسية، مناطق الحرب أو العري غير التوافقي الذي يظهر كذبًا لأشخاص حقيقيين بوجوه يمكن التعرف عليها. قامت جوجل بتعليق خدماتها مؤقتًا روبوتات الدردشة الجوزاء القدرة على إنشاء صور لأشخاص في أعقاب الغضب من كيفية تصوير العرق والإثنية، مثل وضع الأشخاص الملونين في الزي العسكري في الحقبة النازية.

(العلامات للترجمة) الذكاء الاصطناعي

[ad_2]

المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *