지능개발

[3분 인문학] 인공지능(AI)의 윤리 문제 _홍익학당.윤홍식.D178

페이지 정보

작성자 홍익학당 작성일16-03-17 00:00 조회0회 댓글0건

본문



앞으로 오는 시대는 차가 스스로 운전합니다.
그런 때가 되면 거기서도 윤리적인 문제가 나와요.
차 사고를 불가피하게 피할 수 없을 때, 뭘 우선시해야 되는지
로봇이 판단해야 된단 말이에요.

인간 같으면 직감적으로 “쟤를 살려야 된다.
쟤는 어떻게 해야 된다.”이걸 로봇이 해야 되잖아요.

결국 윤리의 문제는 앞으로 계속 인공지능이 개발되더라도
인간이 윤리에 대한 답을 내리면서
또 로봇에까지 가르쳐 줘야 되는 그런 부분이 중요한 문제가 되니까

학당에서 하는 이런 양심운동이 별거 아닌 것 같지만
너무나 지당한 얘기, 양심 얘기하는 것 같지만 그 효용이 어마어마해요.
앞으로 모든 문명의 기초가 양심으로 짜져야 됩니다.
안 그러면 무섭죠. 로봇이 발전할수록 무섭죠.

사실 우리도 지금 통제가 안 되는데
우리보다 더 머리 좋은 인공지능을 통제할 수 있단 말이냐.
이런 게 지금 두려우신 거고 일자리가 지금 태반이 날아갈 텐데
인공지능보다 더 일 잘할 자신 없으니까.
그럼 그 인간은 뭘 해야 되느냐?

그런 문제가 앞으로 계속 나올 거니까 지금부터 고민해 가셔야 돼요.
저는 항상 간단합니다. 제가 정답이 있는 게 아니라
어떤 문제가 우리한테 닥치건 양심에 자명하게 하나씩 풀어갈 뿐이에요.


본 동영상은 흥여회 후원으로 만들어지고 있습니다.
많은 사람들에게 알릴 수 있게 도와주신 '흥여회원' 분들께 감사드립니다.

-홍익학당 네이버 카페
http://cafe.naver.com/bohd
-홍익학당 홈페이지
http://hihd.co.kr
-본 동영상의 외국어 번역 및 녹취작업 등 재능기부를 받습니다.
http://cafe.naver.com/hihdtr

* 홍익학당 후원하기
국민은행 879601-01-245696 (흥여회)

* 문의전화
02-322-2537

댓글목록

등록된 댓글이 없습니다.

Total 893건 1 페이지
게시물 검색
Copyright © www.mountaindax.co.kr. All rights reserved.  Contact : help@oxmail.xyz