Logo
search
menuicon
thubnail
미로
자유 풀이
초등 6-1
기타
로봇시대인간의일(1장,2장)-해설있음
슨상님
1
퀴즈 원작자 -
슨상님
추가된 문제 (20/ 20)
오답 허용
정답 미표시
공개 퀴즈

문제 1

OX

기계는 인간처럼 호기심을 느끼고 질문을 던지는 능력을 가지고 있다.

힌트

인공지능은 데이터를 기반으로 계산하거나 선택은 할 수 있지만, 스스로 질문을 만들거나 '왜'를 고민하는 호기심은 없습니다. 인간만이 맥락과 목적을 가진 질문을 던질 수 있습니다.

문제 2

OX

딥러닝 기반의 인공지능은 데이터를 기반으로 결과를 도출하지만, 원인을 스스로 해석하거나 설명하지는 못한다.

힌트

인공지능은 결과를 도출할 수는 있지만, 그 과정이 **‘왜 그렇게 되었는지’**에 대한 설명(해석)은 하지 못합니다. 이는 인간의 이해력과 추론 능력이 필요한 부분입니다.

문제 3

OX

장기나 바둑에서 인공지능이 인간을 이겼다는 것은, 모든 분야에서 인공지능이 인간을 능가했음을 의미한다.

힌트

바둑, 체스, 계산 등의 특정 영역에서는 인간을 이겼지만, 공감, 상식, 도덕적 판단 등 복합적인 인간 능력에서는 아직 멀었습니다.

문제 4

OX

기계는 규칙 기반 사고에는 능하지만, 상식과 직관이 필요한 문제 해결에는 취약하다.

힌트

컴퓨터는 정의된 규칙과 알고리즘에 따라 작동합니다. 그러나 맥락을 이해하거나 상황에 맞는 직관적 판단은 인간의 고유 영역입니다.

문제 5

OX

인간과 기계의 사고 방식은 동일하기 때문에, 훈련만 잘 하면 기계도 인간처럼 창의성을 발휘할 수 있다.

힌트

인공지능이 예술을 창작하거나 새로운 패턴을 생성할 수는 있지만, 의도나 의미를 부여하거나 전혀 새로운 개념을 발명하는 창의성은 인간 고유 능력입니다.

문제 6

선택형

다음 중 인공지능이 인간을 이긴 대표적인 사례로 옳은 것은?

  • 로봇 작가가 노벨문학상을 수상함
  • 알파고가 이세돌을 이긴 바둑 경기
  • 감정분석 AI가 심리상담 업무 대체
  • 로봇이 발명한 이론이 학계의 주목을 받음
힌트

2016년 알파고가 이세돌 9단을 이긴 사건은 인공지능이 고도의 전략 게임에서 인간을 앞지른 상징적 사례입니다.

문제 7

선택형

인공지능과 인간 사고의 가장 큰 차이점은 무엇인가?

  • 인공지능은 감정을 느끼고 인간은 느끼지 못한다.
  • 인간은 데이터 없이도 창의적 문제 해결이 가능하다.
  • 인간은 정확한 계산이 불가능하다.
  • 인공지능은 모순을 이해할 수 있다.
힌트

인간은 직관, 통찰, 상상력을 통해 새로운 아이디어를 만들어낼 수 있습니다. 반면, AI는 기존 데이터 없이는 창의성을 발휘할 수 없습니다.

문제 8

선택형

다음 중 인공지능이 아직 대체하기 어려운 인간의 능력으로 보기 어려운 것은?

  • 직관적 판단
  • 창의적 질문 생성
  • 공감 능력
  • 수치 계산 능력
힌트

인공지능은 숫자 계산, 빠른 연산 같은 능력에는 매우 뛰어납니다. 그러나 감정, 공감, 창의적 질문 같은 능력은 인간 고유입니다.

문제 9

선택형

책에서 언급된 인공지능의 사고방식은 다음 중 어떤 유형에 가까운가?

  • 정서 중심
  • 귀납적 판단
  • 기계적 추론
  • 상징적 해석
힌트

인공지능은 주로 ‘기계적 사고’, 즉 데이터를 기반으로 한 확률적 연산과 패턴 분석을 수행합니다. 인간의 추론은 종종 모순, 상징, 직관이 포함됩니다.

문제 10

선택형

다음 중 '인공지능이 인간을 완전히 대체할 수 없다'는 근거로 가장 타당하지 않은 것은?

  • 인간은 새로운 질문을 만들 수 있다.
  • 인공지능은 감정을 모방할 수 없다.
  • 인간은 상식과 맥락 속에서 판단한다.
  • 인공지능은 모든 상황에서 인간보다 빠르다.
힌트

인공지능이 빠른 판단을 할 수는 있지만, 모든 상황에서 인간보다 뛰어나지는 않습니다. 특히 복잡한 맥락 이해나 감정적 판단이 필요한 경우에는 오히려 부족합니다.

문제 11

OX

자율주행차는 항상 윤리적으로 올바른 선택을 할 수 있도록 설계된다.

힌트

윤리적 판단은 사람마다 기준이 다르기 때문에, '항상 옳은 선택'이란 개념 자체가 성립하기 어렵습니다. 자율주행차는 확률 기반으로 반응하지만 윤리적 선택이 보장되지는 않습니다.

문제 12

OX

자율주행차가 사고를 일으킨 경우, 책임소재는 기술 개발자, 제조사, 이용자 중 누구인지 아직 사회적 합의가 명확하지 않다.

힌트

현재까지 자율주행차 사고에 대해 소프트웨어 개발자, 제조사, 운전자, 보험회사 중 누가 책임져야 하는지에 대해 법적·사회적 합의가 완전히 정립되지 않았습니다.

문제 13

OX

사람은 위기 상황에서 직관과 감정에 따라 판단하지만, 자율주행차는 확률적 계산에 따라 결정을 내린다.

힌트

인간은 위기 상황에서 순간적인 감정·도덕적 직관으로 반응하지만, 자율주행차는 입력된 데이터와 계산된 확률을 기반으로 움직입니다.

문제 14

OX

자율주행 기술의 발전은 단순히 기술적 문제를 넘어서 법적, 윤리적 논의를 요구한다.

힌트

기술이 발전하면서 법과 도덕이 뒤따라야 합니다. 단순히 기술이 ‘가능한가’만이 아니라, 그것이 ‘정당한가’도 함께 논의해야 합니다.

문제 15

OX

자율주행차의 윤리적 판단 기준은 문화권마다 다를 수 있기 때문에 전 세계적으로 단일한 기준을 마련하는 것이 가능하다.

힌트

문화권마다 생명 경시, 나이, 직업 등에 대한 가치 판단이 달라 트롤리 딜레마 같은 선택에서 일률적 기준을 만들기 어렵습니다.

문제 16

선택형

다음 중 자율주행차 기술 발전에 따라 새롭게 제기된 주요 윤리적 문제는 무엇인가?

  • 연료 효율성 증가
  • 교통체증 해소
  • 사고 시 책임 주체
  • 생산 원가 절감
힌트

자율주행차가 사고를 냈을 때, 운전자, 제조사, 프로그래머, 보험사 중 누가 책임을 질 것인지가 핵심 윤리 문제입니다.

문제 17

선택형

책에서 다룬 '트롤리 딜레마'는 자율주행차의 어떤 문제를 설명하기 위해 사용되는가?

  • 경로 최적화 알고리즘 문제
  • 사고 예방 센서의 오류 문제
  • 긴급 상황에서의 윤리적 판단 문제
  • 배터리 수명 예측 문제
힌트

트롤리 딜레마는 두 선택이 모두 피해를 낳는 상황에서 누구를 구할 것인가를 묻는 윤리 실험으로, 자율주행차의 위기 판단을 설명할 때 자주 사용됩니다.

문제 18

선택형

다음 중 자율주행차의 사고 판단과정에서 인공지능이 사용하는 사고방식으로 적절한 것은?

  • 도덕적 직관 기반
  • 맥락 기반 감정 분석
  • 규칙 기반 연산과 확률적 시뮬레이션
  • 상식 기반 공감 알고리즘
힌트

자율주행차는 다양한 센서와 데이터 기반으로 사고 가능성을 계산해 선택합니다. 인간처럼 감정 기반이 아닌 계산 기반이죠.

문제 19

선택형

자율주행차가 상용화될 경우, 가장 직접적으로 영향을 받을 것으로 예상되는 직업군은?

  • 통번역가
  • 의사
  • 트럭·택시 운전사
  • 교사
힌트

자율주행 기술이 상용화되면 가장 먼저 영향을 받을 직군은 운송, 배달, 택시 등 운전을 기반으로 한 직업입니다.

문제 20

선택형

다음 중 자율주행차 기술과 관련한 사회적 논의에서 다뤄야 할 항목으로 가장 적절하지 않은 것은?

  • 윤리적 판단 알고리즘의 기준 설정
  • 책임 소재 명확화
  • 자율주행차 전용 도로의 수
  • 문화적 차이에 따른 윤리적 판단의 차이
힌트

이는 기술 인프라 문제이지 윤리나 사회적 논의의 핵심은 아닙니다. 반면, 윤리 기준이나 책임소재는 제도적 논의의 중심입니다.

구글 클래스룸 공유