‘우리는 기계와 삶을 함께하고 있다’ 해도 과언이 아닙니다. 사무실을 상상해 보세요. 내가 쓰는 노트북, 모니터, 전화기, 복사기 등 다양한 기계가 있습니다. 안락함을 주는 집 역시 TV, 세탁기, 청소기, 컴퓨터, 식기세척기 등등 기계로 둘러싸여 있죠. 개인적이든 공동 생활이든, 삶의 일부가 된 기계는 산업 혁명 이래로 입력한 일을 수행하는 일종의 하인과 같았습니다. 우리는 그들의 주인으로서 ‘기계=도구’로 당연시 여겨왔죠.
하지만 인공지능 기술이 도입되면서부터 우리의 태도가 변하기 시작했습니다. 친구 또는 가족을 부르듯, “OO아, 불 좀 켜줘!”, “OO아, 끝말잇기 하자.”라며 자연스럽게 그들에게 인격을 부여하고 있습니다. 단순 도구에 불과했던 그들이 우리와 상호 작용을 하는 것이죠. 이런 현상은 인공지능 기술이 주변의 더 많은 기계에 적용될수록 확대될 것입니다. 그렇다면 앞으로 우리와 기계의 관계를 어떻게 생각해야 할까요?
2021년 LG전자는 인공지능과 관련된 의문들을 해소하고 인간 중심 AI의 미래를 만들기 위해 ‘AIX 보고서’를 발표했습니다. 세계 최고의 AI 전문가 12명이 참여한 이 보고서는 대중의 인식(Public Perception), 윤리(Ethics), 투명성(Transparency), 사용자 경험(User Experience), 맥락(Context), 관계(Relationship) 등 AI에 대한 6가지 주제를 다루고 있는데요. 오늘은 여섯 번째이자 마지막 주제인 ‘관계’에 대해 알아보겠습니다.
‘관계(Relationship)’란?
인간과 AI 서비스·장치 간의 관계란 양방향의 상호 작용을 의미합니다. AI는 데이터를 기반으로 인간을 학습하고, 인간은 AI를 활용해 목표를 달성해 나가죠. 예를 들어, AI 스피커가 농담이나 일상적인 대화를 할 수 있는 능력을 학습해 독거노인의 말동무가 되어 정서 관리에 도움을 주는 것입니다. 행동을 인식할 수 있는 긴급 SOS 기능을 통해 안전도 책임집니다.
즉 인간은 AI와 협력해 ‘독거노인의 건강’, ‘안전 지킴’이라는 공동 목표를 달성하는 거죠. 인공지능과 이런 상호적인 ‘관계’를 구축하기 위해서는 이들이 어떻게 작동하고 상호 작용하는지를 고려해야 합니다. AIX 보고서는 AI와의 관계를 위해 필요한 요소를 5가지로 나누어 정의했습니다.
1. AI에 대한 지식을 기반으로 시작되는 ‘협업’(Collaboration)
현재 탄광이나 자동차 제조 공장에서 일하는 AI 로봇은 인간이 설정한 작업을 반복적으로 수행하고 있습니다. 사용자가 AI 알고리즘의 개념을 파악하고 AI 로봇을 조정한다면 더 많은 혁신을 창출할 수 있으나, 세부적인 설정이 어렵기 때문인데요.
따라서 기업과 교육 기관에서는 사용자가 AI 활용 능력을 기르고 상호 협업할 수 있도록 인공지능을 작동하는 툴과 프로세스를 표준화할 필요가 있습니다. 인공지능과 관련된 다양한 도구와 기술들이 표준화된다면 사용자가 기술에 쉽게 익숙해질 수 있어 기술에 대한 선택과 접근이 쉬워질 것입니다.
2. 사회 변화에 대응하기 위한 ‘학습’(Learning)
인공지능은 서비스, 의료, 예술 등 다양한 산업 분야에 적용되어 있습니다. 그리고 학습을 통해 산업의 구조를 인식하고 끊임없이 적응하고 있죠. 하지만 이 과정에서 쌓이는 데이터들로 인해 개인정보 유출이나 인권에 대한 위협 등 예상치 못한 문제가 발생할 수 있습니다.
이를 방지하기 위해 인공지능이 데이터를 활용해 우리에 대해 학습하는 만큼, 우리도 인공지능에 대한 학습이 필요합니다. 실무자들은 인공지능을 구축할 때 정책, 산업, 전략 등 다양한 환경을 고려하는 법을 배워야 합니다. 사용자들 또한, 인공지능이 줄 수 있는 장단점과 영향에 대해 관심을 가지고 학습해야 합니다. 충분한 학습이 수반된다면 인간과 기술은 시너지 효과를 내어 조화로운 사회가 될 수 있을 것입니다.
3. 윤리적인 설계를 통한 ‘공감’(Empathy)
인공지능 로봇은 수많은 영화에서 때로는 공격적으로 반응하거나, 때로는 인간과 친근하게 교감하는 등 다양한 모습으로 그려지고 있습니다. 하지만 사람처럼 행동하는 인공지능의 모습을 부정적으로 보는 사람들도 있는데요. 의인화된 로봇이 우리의 삶에 스며든다면 사람들의 일상이 침해될 수 있다는 두려움을 가지고 있는 것입니다.
현재 인간과 AI가 비언어적 표현으로 상호작용할 수 있는 단계까지 기술이 향상되었는데요. 기술 발전에 따라 사람들의 불안감은 증폭될 수 있고, 이는 ON/OFF 작동 스위치 만으로 잠재울 수 없을 것입니다.
이런 문제를 해결하기 위해 EU의 정치인들은 “편견과 차별에 대한 보호, 사회 및 환경에 대한 책임, 데이터 보호 등 몇 가지 지침과 원칙에 따라 인공지능이 만들어져야 한다”고 주장했는데요. 어떠한 가치관이 바람직하고 또 그렇지 않은지, AI가 ‘인간’을 중심으로 판단하도록 설계해야 한다는 것이죠. 이를 통해 AI가 사람들의 일상을 침해하지 않는다는 확신을 줘야 올바른 공감이 가능할 것입니다.
4. 발전 가능성이 보이는 ‘오류 가능성’(Fallibility)
AI가 인간의 무의식적인 편견까지도 고스란히 학습하여 오류를 발생시킬 수 있다는 의견이 나오고 있습니다. 일본 문부과학성 산하 과학기술 연구소 리켄(Riken)의 국제 문제 전무이사인 하라야마 유코(Harayama yuko) 박사는 “만약 인공지능이 ‘사회가 남자들에 의해 지배되고 있다’고 판단하면, 남성의 습관이나 상호 작용하는 방식을 학습할 것입니다. AI 시스템을 이용하는 여성들은 자신이 외부인처럼 느껴지며 결국 AI에 대한 경험이 불만족스러워 질 것입니다.”라고 전했죠.
AI 기기가 편견을 보일 때면, 오히려 이를 역이용하는 방법으로 이런 오류들을 해결할 수 있습니다. 반대 성향의 데이터들을 주입해 또 다른 편견을 학습하도록 하는 것이죠. 시간과 노력이 필요한 방법이지만, 인간과 AI의 긍정적인 관계가 형성하기 위한 첫 걸음이 될 것입니다.
5. 최종 경험을 결정짓는 ‘인터페이스’(Interface)
사람들은 시리(Siri)나 알렉사(Alexa) 같은 AI 비서를 사용할 때 마치 사람과 의사 소통하듯이 음성 및 문자로 소통하고 있습니다. 기술이 발전하면서 소통 방식은 점차 정교해지고 있고, 앞으로 우리의 일상과 기술은 더욱 가까워질 것입니다.
때문에 AI 사용자들이 기술을 더욱 유용하게 사용할 수 있게 하는 ‘직관적인 인터페이스’가 요구됩니다. 기술자들은 표준화된 플랫폼을 구축하고 디자인해야 하죠. AI가 발전하고 인간의 삶에 더 가까워질수록, AI 시스템 및 제품과 인간이 상호 작용하는 방식은 보다 더 간편하고 자연스러워질 것입니다.
인간의 삶에 AI를 통합하는 과제는 복잡한 소프트웨어 기술을 받아들이고, 이해하고, 신뢰하는 사람의 능력에 그 성공 여부가 달려 있습니다. AI는 본질적으로 도구지만, 인간으로부터 배우고 인간의 필요를 예측하고 인간과 함께 탐색하는 도구라는 점에서 특별하죠. AI에도 결함이 있을 수 있지만, 사용자는 이 결함이 개선될 것이라고 믿고 AI를 받아들일 수 있어야 합니다.
지금까지 인공지능과의 ‘관계’에 대해 알아보았습니다. 이번 편을 마지막으로, 인공지능의 6가지 주제에 관한 이야기를 모두 마치도록 하겠습니다. 여러분이 AI에 대한 이해를 높이는 데에 우리의 이야기가 조금이나마 도움이 되었기 바랍니다. <인간 중심 AI>의 미래를 만들어 가는 LG전자! 앞으로의 행보도 기대해주세요.