인공지능 발전해도 규칙밖의 판단은 결국 인간의 몫
4차 산업혁명 이야기

인공지능 발전해도 규칙밖의 판단은 결국 인간의 몫

생글생글2021.03.18읽기 5원문 보기
#인공지능(AI)#자율주행차#알고리즘#윤리적 의사결정#신뢰성#의인화#인공지능 윤리#예측가능성

2016년 ‘버트 믿어주기’ 실험이 진행됐다. 어떤 로봇이 믿을만한지 알아보기 위해 세 종류의 로봇 버트를 준비해놓고 사람들에게 보여준 것이다. 미션은 오물렛을 만들기 위해 인간에게 달걀과 기름, 소금을 건네주는 것이었다. 버트A는 결점이 없지만 말은 못했다. 버트B는 자주 달걀을 떨어뜨리고, 말을 하지 못했다. 버트C는 제일 서툴렀지만 얼굴에 표정도 있고 실수하면 사과할 줄 알았다. 실험이 끝난 뒤 참가자 21명이 주방보조로 선택한 로봇은 버트C였다.

인공지능 기술과 신뢰 형태 변화

실험의 규모는 작았지만 인상적이었다. 버트C는 작업이 서툴러 다른 로봇에 비해 작업시간이 50%나 더 걸렸다. 하지만 사람들은 유능하고 믿음직한 로봇보다 실수를 하더라도 인간과 비슷한 로봇을 신뢰했다. 인지심리학자인 프랭크 크루거 교수는 기계의 미숙함은 신뢰저하로 이어지지만, 기계가 사과와 같은 기초적인 사회예절을 보이면 신뢰가 금세 회복된다고 설명한다. 기계에 대한 신뢰형태가 달라지고 있음을 엿볼 수 있는 대목이다. 그간 기계에 대한 신뢰는 오로지 기능적 확실성에서 도출되었다. 즉, 예측가능성이 곧 기계의 신뢰성이었다. 기계에 대한 신뢰는 딱 주어진 만큼의 작업을 할 것이라는 믿음에서 나온다. 클라우드에 저장된 문서는 언제 어디서나 열어볼 수 있을 거라고 믿고, ATM에서는 요청한 돈이 정확히 인출될 것이라 믿는다. 하지만 인공지능에 대한 사람들의 기대는 이와 다르다. 인공지능 기술 이전의 기계는 정해진 일만을 안정적으로 ‘처리’해줄 것이라 믿었지만, 오늘날에는 기계가 무엇을, 언제할지 ‘결정’ 해줄거라 믿는다. 목적지에 도착하기 위해 좌회전할지, 우회전할지 여부는 자율주행차가 결정하고, 탑승자는 이를 전적으로 믿어야 한다.

알고리즘화 할 수 없는 신뢰

인공지능의 외모와 의인화는 감성적인 요인임에는 분명하지만, 신뢰로 이어지기에는 한계가 있다. 인공지능의 신뢰성을 평가할 방법에 대한 고민이 필요한 이유이다. 자동차는 안정성을 입증한 구체적인 기준을 자율주행차에 그대로 적용할 수 없다. 자율주행차의 결정을 신뢰해도 좋다는 인증이 별도로 필요하다. 인공지능은 곧 알고리즘이기 때문에 어떻게 결정하고, 어떤 의사결정 과정을 따르는지 인간이 알아야 한다. 윤리적인 측면에서 알고리즘을 신뢰하기 위해서는 인간 스스로 어떻게 윤리적인 결정을 내리는지 파악해야 한다. 인간은 언제나 상식적인 선에서 윤리적인 결정을 내렸지만, 구체적인 과정을 이해하는 사람은 많지 않다. 윤리적 결정을 판단하는 것은 상황에 따라 달라 일반화하기 어려운 탓이다.

각각 철학과 교수이자 컴퓨터공학과 교수인 수전 앤더슨과 마이클 앤더슨 부부는 윤리적인 로봇 ‘나오’를 개발했다. 나오는 키 60㎝에 무게가 4.5kg로 막 걸음마를 떼기 시작한 아이 느낌의 로봇이다. 귀여운 로봇 나오는 약 복용시간이 되면 노인에게 약을 가져간다. 환자가 거절할 경우 로봇 나오는 인간과 유사하게 상황을 따져본다. 약을 먹어서 얻는 혜택과 그렇지 않을 경우 발생하는 피해를 비교해 환자의 의견을 존중할지 결정한다. 약이 진통제라면 환자 말을 존중하지만, 생명에 지장을 주는 약이라면 의사에게 바로 알리는 식이다. 앤더슨 부부는 이를 위해 도덕을 수학적으로 계산했다. 최대 이익은 2를 더하고, 최소 피해는 1을 빼고, 최대 피해는 2를 빼는 식이다. 로봇 나오는 윤리적 자율성은 없지만, 인간은 나오의 의사결정 과정을 예측하고 이해할 수 있기 때문에 나오의 행동을 신뢰할 수 있다.

신뢰의 주체는 결국 인간

로봇 나오는 꽤 믿을만하지만, 예외상황이 없는 경우에만 그렇다. 사전규칙이 아주 좁은 경계 안에서만 정해졌기 때문이다. 예견되지 않은 무수한 상황에 대한 알고리즘을 작성해야 하는 난제가 인공지능 윤리 앞에 놓여 있다. 이처럼 해결이 쉽지 않지만, 알고리즘을 신뢰성 있게 행동하도록 만드는 책임은 언제나 인간에게 있어야 한다. 신뢰의 주체는 과거에도, 오늘날에도, 앞으로도 인간의 몫이어야 하기 때문이다. 기술은 우리가 더 좋은 선택을 할 수 있도록 도와줄 뿐이다. 누구를 신뢰할지 여부를 인간이 기계와 알고리즘에만 의지해 결정할 정도로 자동화된 세상을 살아가는 것은 부끄러운 일이다. 따라서 신중해야 한다. 터치 한 번으로 영향력을 미칠 수 있는 디지털 시대를 살아가는 우리 각자가, 신뢰할 대상을 신중하게 판단할 때 더 나은 세상을 만드는 데 소박한 책임을 질 수 있음을 잊지 않아야 할 것이다.

☞ 포인트

시키는 일만 정확히 해내던 기계가 알고리즘 적용으로 신뢰성 급증 그럼에도 더 좋은 선택 도와줄 뿐

AI 퀴즈

이 기사로 1분 퀴즈 풀기

객관식 3문항 · 즉시 채점

광고Google AdSense — 728×90

🔗 본문 속 개념

📚 함께 읽으면 좋은 기사

인간 두뇌를 닮을 필요가 없어진 인공지능의 진화
4차 산업혁명 이야기

인간 두뇌를 닮을 필요가 없어진 인공지능의 진화

현대 인공지능은 인간의 뇌 구조를 모방하려는 초기 접근에서 벗어나 주어진 과제를 효과적으로 수행하는 것에만 집중하고 있다. 딥블루 이후 인공지능은 상향식 접근으로 전환되어 반복적 업무뿐 아니라 창의적 판단까지 대체하기 시작했으며, 이는 기존 경제학자들의 일자리 영향 분석을 무효화시키고 있다. 인공지능의 진화는 자연선택처럼 우연과 복잡성 속에서 일어나므로, 처리 능력을 통해 진화하는 인공지능이 결국 인간의 능력을 초월할 가능성이 있다.

2020.04.28

넷플릭스 진화의 비밀은 소비자에게 있다
디지털 이코노미

넷플릭스 진화의 비밀은 소비자에게 있다

구독 모델은 기업과 고객이 일회성 거래 관계에서 벗어나 장기적 파트너 관계를 맺는 비즈니스 방식으로, 소비자의 선택 데이터를 수집해 AI 알고리즘으로 맞춤형 서비스를 제공함으로써 고객 만족도를 높인다. 넷플릭스가 개별 사용자의 취향 데이터를 기반으로 맞춤 추천과 오리지널 콘텐츠를 제작하는 것이 대표적이며, 이는 소비자가 가치 창조의 핵심 주체가 되는 C2B 모델의 실현이다. 데이터와 알고리즘 기술이 구독 모델을 디지털 시대의 핵심 비즈니스 모델로 만들었으며, 고객 유지 비용이 시간이 지날수록 낮아지는 선순환 구조를 형성한다.

2021.09.02

두 얼굴의 알고리즘…감사 통한 투명성 확보 필요
4차 산업혁명 이야기

두 얼굴의 알고리즘…감사 통한 투명성 확보 필요

인공지능의 핵심인 알고리즘은 개발자의 목표와 이념이 반영되어 객관적일 수 없으며, 불투명성·불공정성·확장성을 갖춘 나쁜 알고리즘은 특정 계층에 파괴적 피드백 루프를 만들어 자발적으로 개선되지 않는다. 이를 해결하기 위해 회계감사처럼 알고리즘 감사 제도를 도입하여 투명성을 확보하고, 효율성뿐 아니라 공정성과 공익의 가치를 알고리즘에 반영해야 한다.

2020.12.23

종교계의 AI 활용, 수용해야 할까
시사이슈 찬반토론

종교계의 AI 활용, 수용해야 할까

종교계에서 AI 활용이 확산되고 있는 가운데, 포교 접근성 확대와 인력 부족 해결이라는 긍정적 평가와 영성 훼손 및 상업화 우려라는 비판이 대립하고 있다. 종교계는 AI를 도구로 활용하되 고해성사나 설교 같은 핵심 영역은 인간의 영역으로 보호하고, 기술 고도화 속에서도 인간의 경험과 감정의 가치를 잃지 않아야 한다.

2026.05.07

AI는 인간대체 아닌 인간보완 쪽으로 발전해야
디지털 이코노미

AI는 인간대체 아닌 인간보완 쪽으로 발전해야

AI에 대한 과장된 우려와 달리 기술 발전의 역사는 인간이 항상 적응해왔음을 보여주며, 포티스헤드 신호등 실험과 보험사 직원의 사례처럼 인간의 상황적·사회적 지능은 AI로 완전히 대체될 수 없다. 따라서 AI는 인간을 모방하거나 대체하는 방향이 아닌 인간의 적응성과 독창성을 보완하는 방향으로 발전해야 한다.

2023.11.30

광고Google AdSense — 728×90 또는 970×250