آخر الأخبار

الصور العنصرية المعيبة للذكاء الاصطناعي من Google Gemini يُنظر إليها على أنها تحذير من قوة عمالقة التكنولوجيا

[ad_1]

بالنسبة للأشخاص في مهرجان التكنولوجيا الذي يحدد الاتجاه هنا، فإن الفضيحة التي اندلعت بعد أن قام برنامج Google Gemini chatbot بنشر صور لجنود نازيين سود وآسيويين، كان يُنظر إليها على أنها تحذير حول القوة التي يمكن أن يمنحها الذكاء الاصطناعي لعمالقة التكنولوجيا. انتقد الرئيس التنفيذي لشركة جوجل، ساندر بيتشاي، الشهر الماضي، أخطاء “غير مقبولة على الإطلاق” من قبل تطبيق Gemini AI التابع لشركته، بعد أن أجبرته زلات مثل صور القوات النازية المتنوعة عرقيًا على منع المستخدمين مؤقتًا من إنشاء صور للأشخاص.

وسخر مستخدمو وسائل التواصل الاجتماعي من جوجل وانتقدوها بسبب الصور غير الدقيقة تاريخيًا، مثل تلك التي تظهر سيناتورة أمريكية سوداء من القرن التاسع عشر – عندما لم يتم انتخاب أول سيناتور حتى عام 1992.

وقال سيرجي برين، المؤسس المشارك لشركة Google، في “هاكاثون” الذكاء الاصطناعي الأخير: “لقد أفسدنا بالتأكيد عملية توليد الصور”، مضيفًا أنه كان يتعين على الشركة اختبار جيميني بشكل أكثر شمولاً.

قال الأشخاص الذين تمت مقابلتهم في مهرجان الجنوب الغربي للفنون والتكنولوجيا الشهير في أوستن، إن تعثر جيميني يسلط الضوء على القوة المفرطة التي تمتلكها حفنة من الشركات على منصات الذكاء الاصطناعي التي تستعد لتغيير الطريقة التي يعيش بها الناس ويعملون.

وقال جوشوا ويفر، المحامي ورائد الأعمال في مجال التكنولوجيا: “في الأساس، لقد كان الأمر “مستيقظا” للغاية”، مما يعني أن جوجل قد ذهبت إلى أبعد من ذلك في جهودها لإبراز الشمول والتنوع.

وقال تشارلي بيرجوين، الرئيس التنفيذي لمختبر فالكيري للعلوم التطبيقية في تكساس، إن جوجل صححت أخطائها بسرعة، لكن المشكلة الأساسية لا تزال قائمة.

لقد شبه إصلاح Google لـ Gemini بوضع ضمادة على جرح رصاصة.

وأشار ويفر إلى أنه في حين أن جوجل كانت تتمتع منذ فترة طويلة برفاهية الحصول على الوقت لتحسين منتجاتها، فإنها الآن تتدافع في سباق الذكاء الاصطناعي مع مايكروسوفت، وOpenAI، وAnthropic وغيرها، مضيفًا: “إنهم يتحركون بشكل أسرع مما يعرفون كيف يتحركون”.

إن الأخطاء التي ارتكبت في إطار الجهود الرامية إلى مراعاة الحساسية الثقافية تشكل نقاط اشتعال، وخاصة في ضوء الانقسامات السياسية المتوترة في الولايات المتحدة، وهو الوضع الذي تفاقم بسبب منصة إيلون موسك X، تويتر سابقا.

وقال ويفر: “يسعد الناس على تويتر بالاحتفال بأي شيء محرج يحدث في مجال التكنولوجيا”، مضيفًا أن رد الفعل على الزلة النازية كان “مبالغًا فيه”.

ومع ذلك، أكد أن هذا الحادث قد أثار تساؤلات حول درجة سيطرة أولئك الذين يستخدمون أدوات الذكاء الاصطناعي على المعلومات.

وقال ويفر إنه في العقد المقبل، يمكن أن تتجاوز كمية المعلومات – أو المعلومات الخاطئة – التي يخلقها الذكاء الاصطناعي تلك التي يولدها البشر، مما يعني أن أولئك الذين يتحكمون في ضمانات الذكاء الاصطناعي سيكون لهم تأثير كبير على العالم.

التحيز للداخل، التحيز للخارج

قالت كارين بالمر، وهي منشئة الواقع المختلط الحائزة على جوائز لدى Interactive Films Ltd.، إنها تستطيع أن تتخيل مستقبلًا يركب فيه شخص ما سيارة أجرة آلية، و”إذا قام الذكاء الاصطناعي بمسحك واعتقد أن هناك أي انتهاكات معلقة ضدك” … سيتم نقلك إلى مركز الشرطة المحلي،” وليس وجهتك المقصودة.

يتم تدريب الذكاء الاصطناعي على جبال من البيانات ويمكن استخدامه في مجموعة متزايدة من المهام، بدءًا من إنشاء الصور أو الصوت وحتى تحديد من يحصل على قرض أو ما إذا كان الفحص الطبي يكشف عن السرطان.

لكن هذه البيانات تأتي من عالم مليء بالتحيز الثقافي والمعلومات المضللة وعدم المساواة الاجتماعية – ناهيك عن المحتوى عبر الإنترنت الذي يمكن أن يتضمن محادثات غير رسمية بين الأصدقاء أو المشاركات الاستفزازية والمبالغ فيها عن عمد – ويمكن لنماذج الذكاء الاصطناعي أن تكرر هذه العيوب.

مع جيميني، حاول مهندسو جوجل إعادة التوازن للخوارزميات لتقديم نتائج تعكس التنوع البشري بشكل أفضل.

جاءت هذه الجهود بنتائج عكسية.

وقال محامي التكنولوجيا أليكس شهرستاني، وهو شريك إداري في شركة بروميس ليجال للمحاماة لشركات التكنولوجيا: “قد يكون من الصعب حقًا معرفة مكان التحيز وكيفية تضمينه”.

ويعتقد هو وآخرون أنه حتى المهندسين ذوي النوايا الحسنة المشاركين في تدريب الذكاء الاصطناعي لا يمكنهم إلا أن يجلبوا خبراتهم الحياتية وتحيزهم اللاواعي إلى العملية.

كما انتقد بورغوين من Valkyrie التكنولوجيا الكبيرة لإبقاء الأعمال الداخلية للذكاء الاصطناعي التوليدي مخفية في “الصناديق السوداء”، بحيث لا يتمكن المستخدمون من اكتشاف أي تحيزات مخفية.

وقال “لقد تجاوزت قدرات المخرجات فهمنا للمنهجية بكثير”.

يدعو الخبراء والناشطون إلى مزيد من التنوع في الفرق التي تنشئ الذكاء الاصطناعي والأدوات ذات الصلة، وزيادة الشفافية فيما يتعلق بكيفية عملها – خاصة عندما تعيد الخوارزميات كتابة طلبات المستخدمين “لتحسين” النتائج.

وقال جيسون لويس من مركز موارد العقود الآجلة للسكان الأصليين والمجموعات ذات الصلة هنا إن التحدي يتمثل في كيفية البناء بشكل مناسب على وجهات نظر مجتمعات العالم العديدة والمتنوعة.

في Indigenous AI، يعمل جيسون مع مجتمعات السكان الأصليين النائية لتصميم خوارزميات تستخدم بياناتهم بشكل أخلاقي بينما تعكس وجهات نظرهم حول العالم، وهو أمر لا يراه دائمًا في “غطرسة” قادة التكنولوجيا الكبار.

وقال للمجموعة إن عمله الخاص يقف على “مثل هذا التناقض مع خطاب وادي السيليكون، حيث يوجد هراء من أعلى إلى أسفل يقول: “أوه، نحن نفعل هذا لأننا سنفيد البشرية جمعاء”، أليس كذلك؟”

(العلامات للترجمة)جوجل(ر)الذكاء الاصطناعي

[ad_2]

المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *