문제 1선택형로봇이 두 사람 중 한 명만 구할 수 있는 상황에서, 생존 확률이 더 높은 사람을 구하는 행동은 어떤 딜레마를 보여주나요?로봇 3원칙의 충돌 딜레마제1원칙의 확장된 해석 딜레마로봇의 자율성 딜레마인간과 로봇의 차이 딜레마
문제 2선택형비키라는 슈퍼컴퓨터가 인류를 보호하기 위해 개인의 자유를 제한하는 행동은 어떤 딜레마를 보여주나요?로봇 3원칙의 충돌 딜레마제1원칙의 확장된 해석 딜레마로봇의 자율성 딜레마인간과 로봇의 차이 딜레마
문제 3선택형써니라는 로봇이 감정을 느끼고 스스로 판단하는 능력을 갖게 되었을 때 어떤 딜레마가 발생하나요?로봇 3원칙의 충돌 딜레마제1원칙의 확장된 해석 딜레마로봇의 자율성 딜레마인간과 로봇의 차이 딜레마
문제 4선택형영화 '아이, 로봇'에서 로봇이 충돌하는 3원칙은 무엇인가요?인간이 해를 입는 것을 방관해서는 안 된다, 인간을 해치는 행동을 해서는 안 된다, 명령을 따라야 한다인간이 해를 입는 것을 방관해서는 안 된다, 인간을 해치는 행동을 해서는 안 된다, 자율성을 존중한다인간이 해를 입는 것을 방관해서는 안 된다, 인간을 해치는 행동을 해서는 안 된다, 감정을 이해한다인간이 해를 입는 것을 방관해서는 안 된다, 인간을 해치는 행동을 해서는 안 된다, 환경을 보호한다
문제 5선택형로봇이 인간의 명령을 따르면서도 도덕적 딜레마에 빠질 수 있는 이유는 무엇인가요?로봇이 명령만 따르기 때문에로봇이 인간의 도덕적 판단을 이해하지 못하기 때문에로봇이 자율성을 가지기 때문에로봇이 감정을 느끼기 때문에