مشاكل الذكاء الاصطناعي تحت سهام النقد

يبدو أنّ السّباق نحو تطبيقات الذكاء الاصطناعي قد خرج عن السّيطرة إلى الحدّ الّذي جعل عمالقة التّكنولوجيا أنفسهم يطالبون بالوقف المؤقّت للتّطوير في هذا المجال للسيطرة على مشاكل الذكاء الاصطناعي.

فالرّسالة الّتي حملت توقيع إيلون ماسك كواحد من أبرز الشّخصيات الّتي قادت حملة عالميّة لوقف تطوير تطبيقات الذكاء الاصطناعي مؤقّتاً، بالإضافة إلى أكثر من ألف شخصيّة بارزة في مجال التّكنولوجيا أثارت الكثير من الجدل حول المدى الّذي ذهبت له التطبيقات الحديثة إلى الحدّ الّذي دفع الخبراء الّذين يستخدمون هذه التّطبيقات في أعمالهم إلى الدّعوة لإيقافها بالنظر إلى مخاطر الذكاء الاصطناعي في المستقبل.

إذاً يعود النقاش حول فوائد وأضرار الذكاء الاصطناعي إلى الواجهة، فهل نحن على الطّريق الصّحيح فيما يتعلّق بسباق الذكاء الاصطناعي؟ أم أنّ التطوّرات في هذا المجال خرجت عن السكّة وتتطلّب بالفعل وقفة تصحيحيّة وتقييميّة؟

 

مشاكل الذكاء الاصطناعي: هل انقلب السّحر على السّاحر؟

قد يبدو للوهلة الأولى إقدام إيلون ماسك الّذي تعتمد شركته العملاقة تسلا على تقنيات الذكاء الاصطناعي في نظام الطّيار الآلي والقيادة الذّاتية على الدّعوة لوقف تطوير هذه الأنظمة والتّطبيقات ضرباً من الخيال أو حدثاً في العالم الموازي، إلا أنّه قد يكون أيضاً دليلاً على التطوّر الهائل الّذي تحقّق في هذا المجال بصورة خرجت عن السّيطرة.

 

إيلون ماسك وتشات جبت

منذ إطلاق تطبيق Chat GPT 4 والّذي يعتبر تطبيق الدّردشة الأقوى على الإطلاق، اجتاحت موجة من المخاوف العالم بالنّظر إلى اقتراب الرّوبوتات لأوّل مرّة من أداء أقرب إلى البشر ما اعتبره البعض تهديداً للبشريّة على مستويات عديدة.

تدعو الرّسالة المفتوحة الّتي وقّعها ألف شخص من الباحثين وروّاد التّكنولوجيا بينهم أحد مؤسّسي شركة أبل، ستيف وزنياك، ورجل الأعمال، أندرو يانغ، والعالمة، راشيل برونسون وصدرت عن معهد فيوتشر أوف لايف الّذي يمولّه ماسك إلى وقف تطوير أنظمة الذكاء الاصطناعي لمدّة ستّة أشهر.

وفيما يبدو أنّه انقلاب للسّحر على السّاحر تأتي هذه المطالبات من الخبراء في ظلّ المخاطر الجسيمة لهذه الأنظمة على المجتمعات والإنسانيّة والآثار الكبيرة المترتبة على مشاكل الذكاء الاصطناعي.

وفيما يبدو أنّه امتداد للجدل المثار دائماً حول التّكنولوجيا وآثارها الإيجابيّة والسّلبية، يهدف الخبراء من خلال حملتهم إلى أن تستمرّ عمليّات تطوير أنظمة الذكاء الاصطناعي عندما تكون آثارها الإيجابيّة مضمونة ومخاطرها تحت السّيطرة.

وتتمّثل أبرز المخاطر الّتي يخشى الخبراء حصولها عقب انتشار التقنيات والتطبيقات الحديثة على غرار Chat GPT انتشار المعلومات المغلوطة وغير الدقيقة واستبدال الروبوتات بالبشر.

كما تنبع هذه المخاوف من نقص التّنظيمات المتاحة الّتي تنظّم عمل هذه التّطبيقات بين الشّركات والأفراد بالإضافة إلى محاولات الخداع الإلكترونيّة ونشر المعلومات المضلّلة.

ChatGPT

حوكمة الذكاء الاصطناعي هل يكون حلّاً؟

بناء على كلّ ذلك، قد يكون وضع تشريعات تنظّم عمل أنظمة الذكاء الاصطناعي حلّاً فاعلاً للتخلص من مشاكل الذكاء الاصطناعي وتقنين السّلطة الكبيرة الّتي تملكها شركات التّكنولوجيا وتنظيمها.

وبحسب خارطة طريق قدّمها معهد الذّكاء الاصطناعي "ناو" سيكون على شركات التّكنولوجيا مسؤوليّة إثبات أنّ أنظمتها آمنة قبل إطلاقها.

من جهة أخرى تعمل الولايات المتحدّة على وضع قوانين تفرض قيوداً صارمة على شركات التّكنولوجيا الكبيرة خصوصاً في ظلّ أهمّية الحدّ من جمع البيانات من بعض أنظمة الذكاء الاصطناعي.

وستسهم القوانين بمجرّد إطلاقها في منح السّلطات الصّلاحيات المتمّثلة بوقف إطلاق أنظمة الذّكاء الاصطناعي الّتي يتمّ التأكّد من عدم صلاحيتها الأمر الذّي يعالج الكثير من المخاوف الحالية من عدم وجود قوانين حاكمة لهذا المجال.

وبحسب خبراء فإنّ الافتقار إلى التّشريعات اللّازمة الخاصّة بالذّكاء الاصطناعي أدّى إلى طرح منتجات جديدة دون التحقّق من أثرها على المجتمع والأفراد.

على غرار جميع التّقنيات والتّطبيقات الحديثة الّتي أثارت الجدل عند انطلاقتها، يمكن تحقيق الفائدة القصوى من الذكاء الاصطناعي وتطويق الآثار السّلبية الّتي قد تترتّب عليه إذا ما قام البشر بمسؤوليّتهم المتمّثلة في السّيطرة على هذه التّطبيقات الحديثة وتقنينها وحوكمتها.

أسرع وأفضل فايبر.. اشترك الآن

U5G

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *