واشنطن _ المغرب اليوم
حذر العلماء في ورقة بحثية حول تطوير الذكاء الاصطناعي، من فكرة انقلاب الذكاء الاصطناعي على البشر، وكأنها حبكة فيلم خيال علمي، لكن هذه الفكرة هي موضوع دراسة جديدة تجد أن ذلك ممكن ولن نتمكن من إيقافه. ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، صمم فريق من العلماء الدوليين نظرية لخوارزمية احتواء تضمن أن نظامًا فائق الذكاء لا يمكن أن يؤذي الناس تحت أي ظرف من الظروف، عن طريق محاكاة الذكاء الاصطناعي ومنعه من تدمير البشرية. ومع ذلك، يُظهر التحليل أن الخوارزميات الحالية لا تملك القدرة على إيقاف الذكاء الاصطناعي، لأن توجيه النظام بعدم تدمير العالم من شأنه أن يوقف عمليات الخوارزمية الخاصة عن غير قصد. لطالما أذهل الذكاء الاصطناعي البشر لسنوات، حيث نشعر بالرهبة من الآلات التي
تتحكم في السيارات، أو تؤلف سيمفونيات أو تهزم أفضل لاعب شطرنج في العالم في لعبتهم الخاصة. ومع ذلك، مع القوة العظمى تأتي مسؤولية كبيرة والعلماء في جميع أنحاء العالم قلقون بشأن الأخطار التي قد تأتي مع الأنظمة فائقة الذكاء. كما أنه باستخدام الحسابات النظرية، أظهر فريق دولي من الباحثين، بما في ذلك علماء من مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية، أنه لن يكون من الممكن التحكم في ذكاء اصطناعي فائق الذكاء. في دراستهم، صمم الفريق خوارزمية احتواء نظرية تضمن أن الذكاء الاصطناعي الفائق لا يمكن أن يؤذي الناس، لكن التحليل الدقيق يظهر أنه في نموذجنا الحالي للحوسبة ، لا يمكن بناء مثل هذه الخوارزمية. كما أنه بناءً على هذه الحسابات، فإن مشكلة الاحتواء غير قابلة للحكم، ولا يمكن لأي خوارزمية واحدة إيجاد حل لتحديد ما إذا كان الذكاء الاصطناعي سيؤدي إلى ضرر للعالم. أظهر الباحثون أيضًا أننا قد لا نعرف حتى متى وصلت الآلات فائقة الذكاء إلى هذا الحد، لأن تحديد ما إذا كانت الآلة تُظهر ذكاءً متفوقًا على البشر هو أمر غير مباشر أيضا.
قد يهمك ايضا