تكنولوجيا

خطر جديد للتكنولوجيا.. إرهاب مسلح بالذكاء الاصطناعي قريباً

الحياة نيوز – أطلق قادة شركات في مجال الذكاء الاصطناعي، تحذيرات من احتمال استخدامه في تطوير وصناعة أسلحة تهدد مصير البشرية، لتضيف بعداً آخر لمخاطره المتزايدة، إن “لم يتم كبح جماحه بالقوانين”.

ويكشف خبيران في مجال الذكاء الاصطناعي وتكنولوجيا المعلومات حقيقة تلك المخاوف ومدى إمكانية تحققها في المستقبل القريب.

وقد يؤدي التسارع الكبير في تطوير الذكاء الاصطناعي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية، حسب ما حذر ثلاثة من قادة الذكاء الاصطناعي المؤثرين أثناء شهادتهم في جلسة استماع بالكونغرس الأميركي.

انعقدت جلسة الاستماع بعد أيام من تقديم شركات تعمل في مجال الذكاء الاصطناعي التزامات طوعية للبيت الأبيض، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أمانا، وفق ما نقل موقع (سكاي نيوز) عربية.

ويتحدث خبير تكنولوجيا المعلومات، سلوم الدحداح، عن “جانب أسود وخطر” للذكاء الاصطناعي،؛ نظرا لآن تلك الأنظمة قادرة على “التعلم وتطوير نفسها ذاتيا”.

ويمكن استخدام الذكاء الاصطناعي في تطور أسلحة “قاتلة وفتاكة” حسب البرمجة التي يقوم الإنسان بتغذية تلك الأنظمة بها قبل أن تعمل على “تطوير ذلك بشكل ذاتي”.

ويتساءل “ماذا سيحدث إذا أتصل الذكاء الاصطناعي بأشخاص لديهم اهتمام بفعل الشر أو تطوير أسلحة مدمرة؟”.

ويعتبر خبير التكنولوجيا أن حدوث هذا قد “يدمر كل شيء”، ويحول تلك الأنظمة الذكية إلى “وسيلة تهدد البشرية وتطور معدات وأسلحة عسكرية ذات قدرات غير محدودة”.

ومن جانبه يرى خبير تكنولوجيا المعلومات، إسلام غانم، أن تطور الذكاء الاصطناعي “ليس لديه حدود”؛ ولذلك تسعى الولايات المتحدة ودول الغرب لعدم عمل الشركات العملاقة في مجال الذكاء الاصطناعي بشكل منفرد، حتى لا يتحول إلى أداة تهدد تلك الدول أو تعبث بأمن البشرية.

والذكاء الاصطناعي التوليدي، الذي يستخدم البيانات لإنشاء محتوى جديد يشبه ما ينتجه البشر، مثلما يفعل “شات جي بي تي”، أحدثت قدراته صدمة في العالم، وبدأت برلمانات وحكومات، منها البرلمان الأوروبي، في وضع تشريعات تكبح جماحه، وتجعله تحت المراقبة والسيطرة.

بحسب رأي سلوم الدحداح، فإن أكبر مخاطر الذكاء الاصطناعي تتعلق بـ”قدرة تلك الأنظمة على التعلم ذاتيا، والقيام بأشياء لا يريدها الإنسان”.

ويوضح: “نحن نؤيد تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لتلك الأنظمة تعلمه، وما لا يجب عليها معرفته أو الخوض فيه”.

ويشير لمخاطر أخرى، تتعلق بتغذية تلك الأنظمة بـ”بيانات مشوهة أو تطبيقات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستخدم قدرات الذكاء الاصطناعي في غير موضعها”.

ومن جانبه يشير إسلام غانم إلى نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، النوع الأول يستجيب لتلك المخاوف ويعمل على “ضبط أداء الأنظمة الذكية”.

لكنه يتخوف من نوع آخر من الشركات التي “لا تستجيب لتلك المخاوف أو تراها غير مبررة”، وتسارع لإنتاج أنظمة ذكية للغاية “دون ضوابط أو قواعد”.

تابعنا على نبض

مقالات ذات صلة

زر الذهاب إلى الأعلى

الرجاء ايقاف مانع الاعلانات لتصفح الموقع

برجاء دعمنا عن طريق تعطيل إضافة Adblock