x

هدف البحث

بحث في العناوين

بحث في المحتوى

بحث في اسماء الكتب

بحث في اسماء المؤلفين

اختر القسم

القرآن الكريم
الفقه واصوله
العقائد الاسلامية
سيرة الرسول وآله
علم الرجال والحديث
الأخلاق والأدعية
اللغة العربية وعلومها
الأدب العربي
الأسرة والمجتمع
التاريخ
الجغرافية
الادارة والاقتصاد
القانون
الزراعة
علم الفيزياء
علم الكيمياء
علم الأحياء
الرياضيات
الهندسة المدنية
الأعلام
اللغة الأنكليزية

موافق

الاخبار

اخبار الساحة الاسلامية

أخبار العتبة العلوية المقدسة

أخبار العتبة الحسينية المقدسة

أخبار العتبة الكاظمية المقدسة

أخبار العتبة العسكرية المقدسة

أخبار العتبة العباسية المقدسة

أخبار العلوم و التكنولوجيا

الاخبار الصحية

الاخبار الاقتصادية

الأمم المتحدة تحذر من الذكاء الاصطناعي غير الخاضع للرقابة و انتهاكه لحقوق الإنسان

المصدر :

03:16 مساءً

17-9-2021

1623

دعا رئيس حقوق الإنسان في الأمم المتحدة إلى وقف استخدام بعض تقنيات الذكاء الاصطناعي، مثل التعرف على الوجه، إلى أن تتوفر "ضمانات كافية" ضد تأثيرها "الكارثي" المحتمل.

وفي بيان يوم الأربعاء، شدد المفوض السامي للأمم المتحدة لحقوق الإنسان، ميشيل باتشيليت، على ضرورة فرض حظر تام على تطبيقات الذكاء الاصطناعي التي لا تتوافق مع القانون الدولي لحقوق الإنسان، بينما حثت أيضا على وقف مبيعات بعض التقنيات المثيرة للقلق.

وفي إشارة إلى أن خوارزميات الذكاء الاصطناعي والتعلم الآلي تصل الآن "إلى كل ركن من أركان حياتنا الجسدية والعقلية وحتى حالاتنا العاطفية تقريبا"، قالت باتشيليت إن التكنولوجيا لديها القدرة على أن تكون "قوة من أجل الخير"، ولكن يمكن أن يكون لها أيضا "آثار سلبية، وحتى كارثية، إذا استُخدمت دون إيلاء اعتبار كاف لكيفية تأثيرها على حقوق الإنسان".

وجاء تحذير باتشيليت في الوقت الذي أصدر فيه مكتب حقوق الإنسان التابع للأمم المتحدة تقريرا يحلل تأثير أنظمة الذكاء الاصطناعي - مثل التنميط، واتخاذ القرار الآلي وتقنيات التعلم الآلي الأخرى - على مختلف الحقوق الأساسية، بما في ذلك الخصوصية والصحة والتعليم وحرية التعبير.

ويسلط التقرير الضوء على عدد من التطورات المثيرة للقلق، بما في ذلك "نظام بيئي مترامي الأطراف لجمع وتبادل البيانات الشخصية غير الشفافة إلى حد كبير"، بالإضافة إلى كيفية تأثير أنظمة الذكاء الاصطناعي على "النهج الحكومية في العمل الشرطي" و"إقامة العدل" و"إمكانية الوصول للخدمات العامة".

وأضاف التقرير أن صنع القرار المدفوع بالذكاء الاصطناعي يمكن أن يكون أيضا "تمييزيا" إذا كان يعتمد على بيانات قديمة أو غير ذات صلة، مشددا أيضا على أنه يمكن استخدام التكنولوجيا لإملاء ما يراه الناس ويشاركونه عبر شبكة الإنترنت.

ومع ذلك، أشار التقرير إلى أن الحاجة الأكثر إلحاحا هي "إرشادات حقوق الإنسان" فيما يتعلق بتقنيات القياسات الحيوية - التي تقيس وتسجل السمات الجسدية الفريدة والقادرة على التعرف على الوجوه البشرية المحددة - لأنها "أصبحت حلا سريعا بشكل متزايد" للحكومات والهيئات الدولية وشركات التكنولوجيا لمجموعة متنوعة من المهام.

وعلى وجه الخصوص، يحذر التقرير من الاستخدام المتزايد للأدوات التي تحاول "استنتاج الحالة العاطفية والعقلية للأشخاص" من خلال تحليل تعبيرات الوجه وغيرها من "القياسات الحيوية التنبؤية" لتحديد ما إذا كان الشخص يمثل تهديدا أمنيا. وقالت هيئة حقوق الإنسان إن التقنيات التي تسعى إلى استخلاص "رؤى في أنماط السلوك البشري" ووضع تنبؤات على هذا الأساس تثير أيضا "أسئلة جدية".

وفي إشارة إلى أن هذه التكنولوجيا تفتقر إلى "أساس علمي متين" وأنها عرضة للتحيز، حذر التقرير من أن استخدام "أنظمة التعرف على المشاعر" من قبل السلطات - على سبيل المثال، أثناء توقيف الشرطة والاعتقالات والاستجواب - يقوض حقوق الشخص في الخصوصية والحرية والمحاكمة العادلة.

وقالت باتشيليت: "إن خطر التمييز المرتبط بالقرارات التي يقودها الذكاء الاصطناعي - القرارات التي يمكن أن تغير حياة البشر أو تحددها أو تلحق الضرر بها - أمر حقيقي للغاية"، مضيفة أن العالم لا يستطيع "الاستمرار في اللحاق بالركب" مع التطور السريع لتقنية الذكاء الاصطناعي.

 شعار المرجع الالكتروني للمعلوماتية




البريد الألكتروني :
info@almerja.com
الدعم الفني :
9647733339172+