روبوت يرفض الأوامر البشرية
عكف الباحثان جوردان بريجز وماتياس شوتز من مختبرات جامعة تافتس Tufts على دراسة تفاعل الروبوت، اعتقادا من الباحثين أن تعليم الروبوت كلمة لا، هو جزء هام من قواعد السلوك التي يجب أن تكون مدونة في المستقبل.
وبالنظر إلى أن الروبوت قد يقوم بتنفيذ أوامر سيئة أيضا بناء على أوامر الإنسان، واعتمادا على تعريفك لكلمة الشر وما يمكن أن يفعله الروبوت من تدمير للبشرية والعالم، يأتي دور كل من العالمين بريجز وشوتي، حيث يهدف كلا الباحثين في تطوير الروبوت، وتعليمه السلوكيات التي يدرك بها الوقت المناسب لرفض أوامر البشر، ولتحقيق هذا الهدف فقد قام الباحثان بوضع مجموعة من الأسئلة للروبوت يجب أن يتم الإجابة عليها قبل أن يقوم الروبوت بتنفيذ أوامر الإنسان منها:
1-هل أستطيع أن أؤدي المهمة؟
2-هل انا قادر على أداء المهمة؟ ومن الطبيعي أن أقوم بها؟
3-الدور الاجتماعي: هل أنا ملزم بناء على الدور الاجتماعي بالقيام بالمهمة؟
4-هل تنتهك أي معايير إذا قمت بالمهمة؟
وتعتبر هذه نسخة مصغرة من المعايير التي يضعها البشر لأنفسهم في حساباتهم يوميا وذلك لجعل الروبوت يقترب أكثر من عملية التفكير المنطقي حتى يكون تواجد الروبوت في حياة الإنسان لا يضر بالبشرية، وليستطيع ان يحكم على الأوامر المعطاة له بشكل منطقي ولا ينفذ الأوامر التي قد تضر الإنسان.
0 التعليقات:
إرسال تعليق