포스테키안

2018 봄호 /Science black box /2017년 과학자들은 왜 다시 아실로마에 모였을까

2018-04-19 1,291

2017년 과학자들은 왜 다시 아실로마에 모였을까

 

여러분은 미국 California주의 아실로마에 대해 알고 계시나요? 1975년 2월, 유전학자들이 캘리포니아 해안가의 이 작은 마을에 모였습니다. 당시는 유전공학의 시대를 앞두고 있었으며, DNA를 조작하는 기술이 연구되고 있었습니다. 많은 과학자들이 DNA 재조합 실험이 갖는 위험성에 대해 큰 우려를 표했고, 이것이 아실로마 회의 개최로 이어지게 된 것이죠. 이 아실로마 회의를 통해 안전성 확립을 위한 구제책의 검토, 실험 기준의 설치 등이 토의되었습니다.

158-17-1

그리고 결과를 토대로 1976년 미국 국립보건원(national Institute of Health, NIH)이 재조합 실험의 가이드라인을 발표하였고 DNA 재조합 실험에 종사하는 연구자가 지켜야 할 기준을 밝혀 주었습니다. 그 이후로 작은 휴양도시 아실로마는 생명공학이 인류의 종말을 야기하지 않도록 하는 엄격한 도덕적 틀의 동의어가 되었습니다. 42년이 지난 2017년, 아실로마에 또 다시 과학자들이 모였습니다. 1975년이 생명공학에 관한 윤리현상을 다루기 위함이었다면, 이번에는 디지털 세계에서의 윤리현상에 대한 논의를 위해서였습니다.

인공지능은 과연 인류에게 축복일까요, 재앙일까요? 몇몇 사람들은 인공지능이 일의 효율은 물론 사람들의 삶의 질을 향상시켜 줄 것이라고만 믿습니다. 하지만 다음의 상황을 생각해 볼까요? 일가족을 태운 자율주행 자동차가 고속으로 달리고 있습니다. 그런데 갑자기 초등학생 2명이 차로에 뛰어들었다고 가정해 봅시다. 자동차가 급정거를 하면 뛰어든 초등학생 2명이 크게 다치거나 죽고, 우측으로 방향을 틀면 길가에 있던 1명의 다른 보행자가 크게 다치거나 죽게 됩니다.

그리고 좌측으로 방향을 틀면 펜스를 들이받아 차 안의 가족이 크게 다치거나 죽습니다. 이 상황에서 자율주행 자동차, 즉 인공지능은 어떤 판단을 내려야 할까요? 나아가 인공지능의 판단의 기준은 어떤 것이 되어야 할까요? 이는 인공지능의 윤리에 관한 문제이며 깊은 토의와 충분한 논의가 필요합니다.

세계적 베스트셀러인 ‘사피엔스’의 저자 유발 하라리는 인간이 어떤 의지를 가지고 인공지능을 통제할 것인지에 따라 그 답이 결정될 것이라고 하였습니다. 2017년 아실로마 회의의 결과물인 ‘아실로마 AI 원칙’은 이른바 ‘착한 인공지능’을 만들어 가기 위한 전 세계적 움직임이라 할 수 있습니다. 이 원칙은 연구 목표를 ‘인류에게 유용하고 이로운 혜택을 주는 인공지능을 개발하는 것’이라고 정의합니다. 또한 인공지능이 불러올 위험에 대한 대비가 필요하며, 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다고 규정합니다.

아실로마 AI 원칙은 연구이슈(Research Issues)에서 5개, 윤리와 가치(Ethics and Value)에서 13개, 장기적 이슈(Longer-term Issues)에서 5개 등 총 23개 원칙을 도출했습니다. 연구 이슈에는 연구목표, 연구비 지원, 과학정책 연결, 연구문화, 경쟁 피하기의 원칙이 있습니다. 윤리와 가치에는 안전, 장애 투명성, 사법의 투명성, 책임, 가치관 정렬, 인간의 가치, 개인정보 보호, 자유와 개인정보, 공동이익, 인간통제, 비파괴, 인공지능 무기의 원칙이 있으며, 장기적 이슈에는 능력주의, 중요성, 위험, 자기복제 자기개선, 공동의 선(Common Good)이 있습니다. 스티븐 호킹 박사, 테슬라 CEO 엘론 머스크, AI 바둑 프로그램 알파고를 개발한 데미스 허사비스 딥마인드 CEO, 영화배우 겸 감독인 조셉 고든 레빗 등 유명인사 2,000여 명이 이 준칙을 지지하고 있죠.

인공지능과 인간의 사회적 이해관계의 충돌은 불가피합니다. 여러분의 생각은 어떠한가요? 인공지능의 지성에 상한선이 있고, 우리가 인공지능의 상한선을 규정할 수 있을까요? 또, 인공지능에 대한 불확실성까지도 예측할 수 있을까요? 그렇다면 사회는 인공지능에 어떻게 반응해야 할까요? 앞으로도 인공지능에 대한 물음들의 답을 찾기 위해 사람들은 끊임없이 노력해야 할 것입니다.

­출처

허핑턴 포스트, “AI는 대체 어디까지 똑똑해질 수 있을까?” / YTN science, 착한 인공지능 만드는 ‘AI 윤리원칙’

Future of Life institute, 아실로마 AI 원칙 /

http://terms.naver.com/entry.nhn?docId=295110&cid=42412&categoryId=42412

158-17-w

알리미 22기 신지현 | 산업경영공학과 16학번