هل يمكن للروبوتات اتخاذ قرارات أخلاقية؟
تستذكر الكاتبة جولي رينستورم في مقال على موقع "ذي ديلي
بيست" مطلع فيلم "آي روبوت"، حيث يتوجب على الآلي أن يقرر من ينقذ بعد غرق
سيارتين في المياه، مالكه ديل سبونر (الممثل ويل سيمث) أم طفلة..وحتى بعد
أن صرخ سبونر في الروبوت "أنقذها! أنقذها!"، فإن الآلي أنقذه هو لأنه حسَب
أن أمام سبونر فرصة 45% للنجاة مقارنة بـ11% للطفلة.
إن قرار الروبوت ومنهجه الحسابي يبرز تساؤلا مهما: هل سيتخذ البشر
الخيار ذاته؟ وما الخيار الذي نريد لروبوتاتنا أن تتخذه في حالات مشابهة؟
في هذا الفيلم تخضع الروبوتات لثلاثة قوانين تحدد قراراتها وهي:
1- لا يمكن للروبوتات أن تؤذي البشر أو تسمح لهم بالتعرض للأذى.
2- على الروبوتات إطاعة البشر.
3- على الروبوتات أن تحافظ على نفسها، إلا إذا تعارض ذلك مع القانونين الأول والثاني.
1- لا يمكن للروبوتات أن تؤذي البشر أو تسمح لهم بالتعرض للأذى.
2- على الروبوتات إطاعة البشر.
3- على الروبوتات أن تحافظ على نفسها، إلا إذا تعارض ذلك مع القانونين الأول والثاني.
وبُرمجت القوانين الثلاثة في الروبوتات بحيث لا تحتاج الأخيرة
لأن تفكر أو تحكم أو تُقيِّم، وليس عليها أن تحب البشر أو تؤمن أن إيذاءهم
أمر خاطئ أو سيئ، فهي بكل بساطة لا تحتاج أيا من ذلك.
برمجة الروبوتات لاتخاذ قرارات أخلاقية ما تزال معضلة أمام المصنعين |
واستجابة للقانون الأول أنقذ الروبوت حياة سبونر في فيلم "آي
روبوت"، ووفقا لهذا القانون فإنه لا يمكن للروبوت إيذاء البشر، لكن بإمكانه
النيل من مسلح على سبيل المثال لإنقاذ آخرين.
وسواء أمكن برمجة الروبوتات في الواقع بمثل هذه القوانين
الثلاثة أم لا، فإن كلمة "إيذاء" الواردة فيها فضفاضة، فماذا عن الأذى
العاطفي؟ هذه المفاهيم المجردة تظهر مشاكل البرمجة، فالروبوتات في الفيلم
تواجه تعقيدات وفجوات في القوانين الثلاثة، وحتى عندما تعمل القوانين فإنه
ما يزال على الروبوتات تقييم الأوضاع.
ويمكن لتقييم الأوضاع أن يكون معقدا، حيث يتوجب على الروبوت
تحديد اللاعبين والظروف والنتائج المحتملة للسيناريوهات المتعددة، ومن
المستبعد أن تتمكن أي خوارزمية من القيام بذلك، على الأقل ليس بدون
حدوث بعض النتائج غير المرغوبة.
فعلى سبيل المثال برمج خبير روبوتات في "مختبر بريستول
للروبوتات" روبوتا لإنقاذ ممثل للبشر -وهو آلي يدعى "إتش. بوتس"- من الخطر،
فعندما تعرض "إتش. بوتس" لخطر نجح الروبوت في دفعه بعيدا وإنقاذه، ولكن
عندما تعرض اثنان من "إتش. بوتس" للخطر، فإن الروبوت توقف 42% من الوقت غير
قادر على تحديد أيّ الاثنين ينقذ، مما تسبب في "وفاتهما".
السيارات الذاتية القيادة غير قادرة على اتخاذ قرارات حاسمة عندما يتطلب منها الموقف ذلك |
هذه التجربة تسلط الضوء على أهمية الأخلاق، فبدونها كيف يمكن
للروبوت تحديد من ينقذ، أو ما هو الأفضل للبشرية، خاصة إن لم يتمكن من حساب
فرص النجاة؟
ويكافح مطورو السيارات الذاتية القيادة مع مثل هذه
السيناريوهات، فموقع "مورال ماشين" (الآلة الأخلاقية) التابع لمعهد
ماساتشوستس للتقنية يطلب من المشاركين تقييم أوضاع متعددة لتحديد أقل
الشرين والمساعدة في تقييم ما يريد البشر من السيارات الذاتية القيادة
فعله.
والسيناريوهات بشعة، فهل يتوجب على السيارة الذاتية القيادة
دهس ثلاثة أطفال في المسرب أمامها أو الانحراف إلى مسار آخر في الطريق ودهس
خمسة بالغين؟ سيواجه معظمنا صعوبة كبيرة في تحديد أفضل هذين السيناريوهين،
وإذا لم نستطع بسرعة أو بسهولة تحديد أحدهما، فكيف يمكن للروبوت فعل ذلك؟المصدر
التعليقات على الموضوع