Mohammed Aldoub م.محمد الدوب
Mohammed Aldoub م.محمد الدوب

@Voulnet

5 تغريدة 3 قراءة Feb 02, 2023
الكثير مما يسمى ب"الذكاء الاصطناعي" ليست إلا معالجة غير منضبطة لبيانات هائلة بطريقة لا تميز بين المفيد والمضر.
وهذا يفترض ان يتطور مع الوقت لكن مادامت البيانات المصدرية سيئة تكون النتائج سيئة.
مثال: أليكسا تنصح طفلة بصعق نفسها، ومصدر النصيحة موقع عشوائي
arstechnica.com
هل ممكن فلترة المواقع والمصادر التي تستقي منها خوارزميات اليكسا تحليلاتها ونتائجها؟ ممكن، لكن هذا سيحد كثيرا من كمية البيانات التي يتم تحليلها كما أنه سيدخلنا في دوامة الانحياز bias وهو انحياز مصادر تعلم هذه الآلة من مواقع ومصادر يحددها أفراد معينون لأسباب تجارية او ايدلوجية
النقاش بهذا الموضوع اتضح جلياً في الكثير من التقنيات التي تعتمد على تعلم الآلة وتحليل البيانات بخوارزميات يعدها ويصونها مجموعات صغيرة من الناس.
مثال: تقنيات التعرف على الوجوه لا زالت أضعف كثيرا في التعامل مع أصحاب البشرة السوداء مقارنة بالبيضاء.
الاعتماد على التقنيات هذه يزيد مع الوقت ليقوم بمهام لا يتقنها إلا البشر، خصوصا ما يحتاج لفهم السياق وطبيعة اللغة البشرية. مثال اخر: هناك شركات تقدم تقنيات فلترة المتقدمين على الوظائف آليا عن طريق تحليل آلي لحساباتهم في التواصل الاجتماعي، وهذه تقنية بكل تأكيد فيها انحياز bias كبير
قرأت عن احد القضايا في أمريكا عن تقنية "ذكاء الاصطناعي" لإعلام الشرطة بحالة اصطادت التقنية هذه صوت إطلاق نار. وقامت الشرطة باتهام أشخاص بانهم أطلقوا النار بناء على هذه النتائج.
هذا كله ونحن في البدايات.
كيف نحل مشكلة مصادر البيانات السيئة؟ بالتحيز. كيف نحل التحيز؟ بتسويع المصادر

جاري تحميل الاقتراحات...