Relationships

관계라는 주제는 AI가 우리 삶에서 수행하는 역할과 기술이 발전함에 따라 우리는 어떻게 이 새로운 강력한 도구와 상호작용하고 참여할지 조사하는 것입니다. 인간과 기계의 협업 및 공존에서부터 오류가 있으나 시간 경과에 따라 학습을 하는 AI에 대한 소비자 기대에 이르기까지, AI가 더욱 목적 지향적이고 유용하며 다양한 제품/서비스에 내장됨에 따라 기술과 인간의 관계가 변화하고 있습니다.

관계 Relationships

AI와의 결속 형성

조지아공과대학교의 컴퓨팅 학과장인 찰스 리 이스벨(Charles Lee Isbell Jr.)에 따르면, AI가 의미있는 방식으로 진정한 의미에서의 지적 존재가 되기 위해서는 사람처럼 지적인 것이 아니라 사람에 대해 잘 알아야 한다고 합니다.

오류 가능성은 어느 한 쪽에만 있는 것이 아닙니다. 업계에서는 AI에게 인간의 요령을 학습시키는 것에 대한 논의가 활발하지만 그 반대는 어떨까요? 최종 사용자의 오류 가능성과 AI 조작 또는 악용을 제한하는 최선의 방법도 고려해야 합니다.

인간과 AI 서비스 및 기기 간의 관계는 문자 그대로의 의미가 아니라 양방향 상호작용, 협업, 정보와 이해의 교환을 뜻하는 것으로 보아야 할 것입니다. AI가 이전 기술과 구별되는 이유는 바로 이것입니다. 우리는 이제 이러한 도구와 협력하여 공통 목표를 달성하기 위해 서로 학습해야 합니다.

인공지능 경험(AIX)은 디자이너, 개발자, 정책 입안자 및 최종 사용자가 인간 중심 차원에 대한 이해를 공유하여 최종 사용자에게 평등하고 즐겁고 가치 있는 AI 제품 및 서비스를 개발하기 위해 고려해야 하는 개념입니다. 기술이 인간처럼 사고하고 행동하는 것에 더 능숙해지고 우리 삶에서 보다 의미 있는 역할을 하기 시작함에 따라 AIX에는 기술과 인간의 상호작용 방식에 대한 내용이 포함되었습니다.

인류학자이자 인텔에서 가정 및 가정 생활 분야의 최고의 도메인 전문가를 역임한 호주 국립대학교의 3A 연구소(3Ai) 부소장 알렉스 자피로글루(Alex Zafiroglu) 교수는 최종 사용자의 기대치를 관리해야 한다고 말합니다. 자피로글루 교수는 기계가 특정 작업을 처리할 수 있는 놀라운 능력을 지니고 있지만 그건 단지 특정한 작업에만 국한된다는 것을 지적합니다.

자피로글루 교수는 “예를 들면, 기계는 수학에 아주 능숙하지만 인간은 타인과의 관계를 포함한 다른 작업에 매우 능숙합니다.”라고 말합니다. “이 두 가지를 혼합하여 컴퓨팅 시스템이 사람들 간의 사교 및 인맥과 관련되는 어려운 일을 할 수 있다고 기대한다면, 실수에 대한 책임 소재, 특히 사람과의 관계에서 발생하는 실수가 누구의 책임인가에 대해 물을 때 문제가 발생하게 됩니다.”

실제로, 우리는 양탄자를 진공 청소기로 청소하거나 세상을 디지털 방식으로 코드화하는 인지 작업을 수행하는 등 일상 생활에서 기술이 더욱 적극적인 역할을 하는 초기 단계에 와 있습니다. 그러나 이러한 사례의 대부분은 AI가 단일 작업에 초점을 맞추고 있음을 보여주며, 최종 사용자가 이해하고 연관시켜 기술을 적용할 가능성이 훨씬 더 높습니다. 그러므로 범용 인공지능(AGI) 아이디어는 가능성이 낮고, 협의의 AI(Narrow AI)는 이러한 초기 사례가 계속 큰 폭으로 증가되어 새로운 AI 경험을 생성하게 될 것으로 예상합니다.

SourceManny Becerra

제프 포기(Jeff Poggi) 인터뷰

매킨토시 그룹의 공동 CEO

“인간 중심의 AI 설계는 AI가 사회에 성공적으로 전파되기 위해 정말 중요합니다. 현재 인간은 기계의 주인인 것을 매우 당연하게 여기고 있으며, 기계는 원래 도구이자 하인으로 설계되었습니다. 그러나 지금은 기계가 우리의 동료이고 심지어 잠재적 조언자라고 여기는 흥미로운 시대가 되었습니다. 제프 포기(Jeff Poggi) 매킨토시 그룹의 공동 CEO

한 예로서 캠브리지 대학의 OHMC(인간-기계 협업 관측소)는 국내 가전업체 베코(Beko)와 협력하여 처음부터 로봇에게 오믈렛 만들기를 훈련시켰습니다.

여기서 최적의 단어는 훈련(train)입니다. 오믈렛 만들기는 데이터 및 반복 작업에 대해 훈련된 협의의 AI를 기반으로 합니다. 하지만 최종 사용자는 이 로봇이 인간처럼 오믈렛을 만들기 때문에 팬케이크도 만들 것이라고 기대하게 될까요? 그럴 수도 있겠지요. 그러나 AI가 음악, 건강 관리에 대한 조언하는 것도 가능할까요?

그렇게 구체적인 능력을 구비한 AI 애플리케이션은 드물 것입니다. CES 2020에서 출시된 AIX 프레임워크 레벨에서 사용된 다양한 시나리오는 우리 삶에서 AI 통합의 증가를 설명해 주었습니다. 그러나 기술이 유용해지려면 기술에 익숙해져야 합니다.

일기예보에서 눈이 온다고 하면 AI가 가족에게 옷을 따뜻하게 입으라고 조언하고 오븐을 예열한 후 좋아하는 음식을 요리하기 위한 재료를 주문하는 것을 상상해 보세요.

반면에, 자동차에 설치된 AI는 집의 연장선이며 사용자가 약속 시간에 늦을 것 같은 예상이 들면 늘 다니던 경로를 변경하도록 제안하고 안락한 환경을 제공합니다.

결국 자동차의 AI는 스마트 시티와 상호연결하여 다양한 경로, 출발시간 및 운전속도를 실험하고 매일 사용자 목표 및 연비 또는 여행시간과 같은 기타 목표를 기반으로 여행을 최적화합니다.

이러한 시나리오는 먼 미래가 아닙니다. 사실, 우리 예상보다 더 빨리 실현될 수 있습니다. 그러나 최종 사용자를 고려하는 AI 설계 방식과 사용자를 보다 잘 알고 있는 기술과 관계를 맺는 방식에 대한 이해가 반드시 이루어져야 합니다.

협업

함께하면 더 좋은 점

주방이나 공장에서 인간과 기계의 협업은 작업 수행 및 의사결정 방식을 좌우하고 있습니다. 문제는 협업이 앞으로 노동의 미래를 어떻게 발전시키고 형성해 나갈 것인가 하는 것입니다.
AI가 성숙함에 따라 협업은 더욱 보편화될 것입니다. AI의 새로운 역할을 관리할 새로운 전문 직업이 등장할 것입니다. 하지만 결국 모든 사람이 새로운 기술과 더 나은 협력하기 위해서는 AI 활용 능력을 길러야 할 것입니다.

대부분의 사람들은 AI 기반 추천 알고리즘의 개념을 파악하고 알고리즘의 출력에 영향을 주기 위해 자신의 행동을 조정할 수 있습니다. 그러나 선택의 폭이 좁고 필요에 따라 알고리즘을 조작하기 위한 도구가 열악합니다.

다양한 도구 및 기술 세트가 가치사슬에 맞게 표준화되면 AI 기술에 대한 선택과 접근이 크게 증가하고 AI 소프트웨어에서 지금까지 보아온 것보다 훨씬 더 많은 혁신을 유발할 것입니다.

그 지점에 도달하려면 실험실의 개념 증명과 실제 배포 사이의 격차를 메워야 하는 과제를 해결해야 합니다. 연구원과 엔지니어는 현재 그 격차를 줄이는 데 중요한 역할을 하고 있지만 그들만으로는 불가능합니다. 이러한 연구원 및 엔지니어와 이들을 훈련하는 기관은 도구와 프로세스의 표준화에 집중하여 다른 사람들이 가치 사슬에서 더 쉽게 협업할 수 있도록 해야 합니다.

탄광이나 자동차 제조 공장에서 일하는 AI 로봇은 특정 작업을 반복적으로 완료하는데, 이는 인간-기계 협업과 같은 잠재력을 가진 건 아니지만 시작하고 배울 수 있는 기반을 만듭니다.

조지아공과대학교의 컴퓨팅 학과장인 찰스 리 이스벨(Charles Lee Isbell Jr.)에 따르면, 의미있는 방식으로 진정하게 지능적이 되려면 사람처럼 지적인 것이 아니라 사람에 대해 잘 알아야 합니다. “우리는 모두 흥미로운 존재입니다. 그 이유는 외부와 단절되어 있고 스스로 생각할 수 있기 때문이 아니고 다른 사람들과 상호작용하기 때문에 실제로 관심을 끌게 됩니다.”라고 그는 설명합니다. “실제로 많은 학습에서 그런 방식을 쓰고 있어요. 그렇지요? 우리는 다른 사람들과 상호작용함으로써 배우고 대대손손 지식을 전달합니다. 그리고 이것은 AI와 관련하여 가장 좋은 방법이라고 생각합니다.”

그리고 개발자 및 연구 커뮤니티에 관해서는 AIX 프레임워크 레벨 3과 이후의 레벨 4에서 협업, 사용자 이해 및 “정의된 공간”과 같은 개념이 매우 중요하다는 것을 강조해야 합니다.

직장에 있을 때와 집에 있을 때 AI 기기는 해당 장소의 맥락을 이해해야 합니다. 미래의 AI와 우리의 관계 및 긍정적인 공존 또는 공동 작업 관계를 맺을 수 있는 우리의 능력을 좌우하는 것은 어떤 기기든 그 유연성 기능입니다.

예를 들면, 인간은 일반적으로 직장에 있을 때와 집에 있을 때 다르게 행동하고 말합니다. 문제는 이러한 공간이 수렴되기 시작하여 직장 생활, 가정 생활 및 공적 생활 사이에 명확한 정의가 없어지는 경우입니다. 그 경우 어떻게 될까요?

2019년 AI 윤리 분야에서 세계에서 가장 영향력 있는 여성 중 한 명으로 선정된 와이낫 랩(Why Not Lab)의 크리스티나 콜클로프 박사는 이러한 미래 시나리오에 대해 우려를 표하고 있습니다. “직장과 사생활 공간에서 AI 기반 시스템을 면밀히 검토해야 합니다. 이러한 도구가 서로 대화를 시작하고 더 많은 추론을 생성할 수 있습니다. 제 생각에 이것은 아주 무서운 시나리오입니다. 개인적인 영역이기 때문에 무섭고, 이 경우 우리가 상품이 될 것입니다”고 말했습니다.

맥스 웰링(Max Welling) 인터뷰

퀄컴 테크놀로지스 네덜란드 B.V.의 기술 부사장

“인간은 기계와 함께 작업하고 알고리즘을 실행해야 합니다. 물론 처음에 기계는 인간이 사용할 일종의 도구입니다. 하지만 어느 시점에는… 기본적으로 생각할 수 있는 모든 것이 기계 학습에 의해 어떤 식으로든 대변혁이 일어날 것입니다. 제 예측은 그렇습니다.” 맥스 웰링(Max Welling) 박사 퀄컴 테크놀로지스 네덜란드 B.V.의 기술 부사장

학습

인간-AI 협업의 힘
SourceMaximal Focus

AI 기기는 어떻게 인간에 대해 배우고 우리는 그 기기에 대해 어떻게 배울까요? 이것은 흥미로운 질문이며 지금으로서는 어떤 일이 일어날지 보여주는 것이 가장 좋은 대답이 될 것입니다. 인간은 적응하게끔 되어 있습니다. 그러나, 현재 AI가 인간에 대해 학습하는 동안 우리 사회는 이 기술이 우리에게 어떤 영향을 미칠지에 대한 학습 진도에서 뒤쳐져 있습니다. AI에게 인간에 대해 가르치는 것보다 우리가 AI 활용법을 배우는 것이 더 중요합니다.

콜클로프는 “글쎄요, 시민으로서, 소비자로서, 노동자로서 우리의 사생활에 인공 지능이 이렇게 대량 유입될 것이라고 가정한다면, 당연히 어떤 질문을 해야 할 것인지 알아야 합니다.” 라고 말합니다. “그러나 제 생각에 대다수의 일반 시민과 일반 근로자는 이러한 기술의 힘과 잠재력을 상상조차 할 수 없을 것입니다. 그래서 우리는 어떤 질문을 해야 할지 모릅니다. 우리의 사생활 보호와 인권에 대한 위협이 무엇인지 모릅니다.”

그리고 AI는 우리에 대해 어떤 질문을 해야 할까요?

학습과 관련된 중추적 AI의 하위 범주는 감성 컴퓨팅(Affective Computing, AC)입니다. IDC의 AI 소프트웨어 플랫폼 수석 연구 분석가인 헤일리 서덜랜드(Hayley Sutherland)는 이것을 일컬어 컴퓨터 과학, 행동 심리학 및 인지 과학의 조합이라고 설명했습니다. 서덜랜드가 작년에 공개한 블로그에 따르면, AC는 하드웨어와 소프트웨어를 사용하여 얼굴, 신체언어, 생체인식, 언어 및/또는 음성신호의 감지 및 분석을 통해 인간의 감정, 행동 및 인지상태를 식별한다고 합니다.

이와 같은 다학제적 접근 방식과 3Ai의 3Ai의 자피로글루(Zafiroglu) 교수가 주장한 접근방식을 사용하면 AI 시스템이 인간의 감성 신호를 학습할 수 있을 뿐만 아니라 동일한 인간이 최종 사용자로서 전체 학습 과정에 참여하여 본질적으로 지능적인 도구를 가장 잘 사용할 수 있도록 AI 시스템을 구축할 수 있습니다. “우리는 사람들이 AI에 대해 이야기할 때 초대형 시스템을 연상하고 있다는 것을 종종 발견하는데 그것은 정말 크고 무서운 것처럼 느껴지며, 그 시스템을 사용하는 개인에게 어떤 영향을 미칠지 말할 수 없는 수준으로 추상화됩니다. 또는 AI를 작게 정제하여 인간과 기기 간의 상호작용에 매우 가깝게 만들기도 합니다. 사람과 기기, 그리고 그 데이터를 사용하는 다른 시스템 사이의 연결은 볼 수 없습니다. 3A 연구소(3Ai)는 이 사이에서 중계 역할을 하면서, 전 세계에서 데이터 사용 방식과 이를 가능하게 하는 시스템 유형 사이에 스레드 연결을 시도하고 있고, 이러한 유형의 데이터 및 해당 시스템 사용 시 이해하기 쉽고 실행 가능하게 만들고 있습니다. 다양한 사람들은 해당 데이터 용도를 이해할 필요가 있습니다. 우리는 차세대 실무자들을 훈련시켜 그들이 세계로 나가 정책에서부터 산업, 학계, 비대학 교육, 싱크 탱크, 제품팀, 전략팀에 이르기까지 다양한 환경에서 일할 수 있도록 합니다.”

공감

느낌을 표현하려면 여기를 눌러 주세요.

MIT의 컴퓨터 과학자이자 MIT 미디어 랩에서 분사한 어펙티바(Affectiva)의 공동 설립자인 로잘린드 피카드(Rosalind Picard)는 “컴퓨터가 진정으로 지능적이고 우리와 자연스럽게 상호작용하려면 인식하고 이해하는 능력과 심지어 감정을 소유하고 표현하는 능력까지 컴퓨터에게 부여해야 합니다.”라고 말합니다.

그러나 인간의 감정이 종종 논리와 충돌하는 것을 감안하면 인간과 AI가 상호작용하는 방식에서 균형잡는 것이 미묘해집니다. 매킨토시 그룹의 공동 CEO인 제프 포지(Jeff Poggi)에 따르면 미래에 인간과 AI의 상호작용을 연결할 때 공감이 적용되는 방식에서 AIX 설계가 매우 중요할 것이라고 합니다. “인간 중심의 AI 설계는 AI가 사회에 성공적으로 전파되기 위해 정말 중요합니다. 지금 인간은 기계의 주인인 것을 매우 당연하게 여깁니다. 기계는 원래 도구이자 하인으로 설계되었습니다. 그리고 그것은 산업 혁명 이래 계속 존재했습니다. 그러나 현재 기계는 단지 하인이 아닌 우리의 동료이고 심지어 잠재적 조언자라고 간주되는 흥미로운 시대가 되었습니다.” “그래서 기술의 상태와 그 기술을 가진 사람들과의 관계, 그리고 우리가 그 기술과 상호작용하는 방식에서 매우 중요한 변곡점에 있다고 생각합니다. 그리고 인간은 매우 민감한 동물이고, 매우 감성적이며, 우리 주변의 모든 것과 관계를 맺습니다. 따라서 이러한 유형의 인간 중심 AI 설계에 대한 아이디어는 올바른 개념이라고 생각합니다. 사람과 기기 사이에 성취감을 주는 관계를 구축하기 위해 사람, 즉 개인에게 적절한 영향을 주려면 어떻게 해야 하는지에 대한 관점에서 접근해야 하기 때문입니다.” 페가시스템즈(Pegasystems)는 매사추세츠주 케임브리지에서 고객 참여 및 탁월한 운영을 위한 클라우드 소프트웨어 분야를 전문으로 합니다. 이 회사에 따르면 공감은 인간 대 AI의 문제가 아니고 양측 다 제공되는 기능을 최대한 사용하는 것입니다.

페가시스템즈에서 북미, 영국, 호주, 일본, 독일, 프랑스의 소비자 6,000명을 대상으로 실시한 주요 설문조사에는 AI와 공감에 대한 현실점검(reality check)이 실려 있습니다.

페가시스템즈에 따르면 공감이란 다른 사람의 감정을 이해하고 공유하는 능력 또는 단순히 “다른 사람의 입장이 되어보는 것”으로 정의됩니다. 그러나 인간의 공감 능력은 선천적일까요 아니면 학습된 것일까요? 설문 응답자의 절반은 인간이 공감 능력을 가지고 태어났지만 더 배우거나 가르침을 받아야 한다고 믿습니다.

“AI 기반 의사 결정의 미래는 AI의 통찰력과 인간이 제공한 윤리적 고려 사항이 결합되는 것입니다.”

공감이란 사용자가 달력에 적힌 면접으로 인해 스트레스를 받을 때 AI가 이를 감지하는 것입니다. 인터뷰 질문을 만들고 피드백을 제공하여 준비를 돕는 동시에 자동차 경로, 알람 및 의상 코디 옵션을 설정합니다.

마지막으로, 공감은 목표를 지시하기 위해 인간이 시스템에 전달하는 비언어적, 아마도 비의도적 상호작용입니다. 이것은 포지(Poggi)의 인터뷰에서 잘 나타납니다. “이모션 캡처(emotion capture)는 흥미롭고 잠재적인 사용 사례라고 생각합니다. 소비자의 감정은 무엇일까요? 퇴근 길에 차 안에서 부드러운 재즈를 상당히 낮은 볼륨으로 듣고 있었기 때문에 집에 들어올 때 편안한 기분을 느낀다고 해봅시다. 만일 사용자가 집에 들어올 때 그 기분을 유지하려면 어떻게 해야 할까요? 또한 어떻게 해야 사용자가 집에 들어올 때의 기분에 맞춰 조명, 음악, 블라인드와 같은 전반적인 가정 생태계를 조정할 수 있을까요?” “제가 생각하는 흥미로운 개념 중 하나는 AI를 만들 때 기기가 아니라 사람이나 소비자에 맞춰 만드는 것입니다. 따라서 AI 산업의 과제 중에는 내 냉장고에, 내 차에, 내 전화기에 AI가 있을 수 있지만, 이러한 기기들이 내 경험을 제어하는 것을 원하지 않는다는데 있습니다. 내가 어디에 있든 주변에 어떤 기기가 있는 상관없이 최적의 성능 또는 개인적인 최적의 이점을 제공할 수 있도록 그 기기들이 다 같이 원활하게 작동하기를 바랍니다.” 그러나 이러한 종류의 감성적 참여를 보장하기 위해서는 구성원 중 한 명, 단 한 명만을 보호하기 위해서도 선이 그어지는 일종의 안전망을 반드시 마련해야 합니다.

최근 유럽 의회는 정치 기관 중 최초로 윤리, 책임 및 지적 재산권과 관련하여 AI 규칙에 포함해야 할 권장 사항을 제시했습니다.

EU 정치인들에 따르면, 미래의 법률은 다음을 포함하는 몇 가지 기본 원칙에 따라 제정해야 한다고 말했습니다. 이 원칙에는 인간 중심의 인간이 만든 AI, 안전, 투명성 및 책임성, 편향과 차별로부터의 보호, 시정할 권리, 사회적 및 환경적 책임, 개인정보 및 데이터 보호에 대한 존중이 포함됩니다.

또한 “자가 학습(self-learning) 능력과 같은 고위험 AI 기술은 언제든지 인간이 감독할 수 있도록 설계해야 합니다. 윤리적 원칙을 심각하게 위반하고 위험을 초래할 수 있는 기능이 사용되는 경우, 자가 학습 능력이 비활성화되고 완전한 인간 통제 모드로 복원되어야 합니다.”

AIX 설계는 최종 사용자가 AI를 이해하고 요구 사항을 예상하도록 설계된 AI와 어떻게 상호작용할지 고려해야 합니다. 우리의 감정을 읽고 모방하는 AI를 만드는 것이 핵심 목적인 경우, 그러한 AI의 능력을 켜고 끄도록 허용하는 것은 실용적이지 않을 수 있습니다. 그렇다면 기술의 요점은 무엇입니까? 산업계는 정책 입안자, 연구원, 개발자, 최종 사용자로서 다함께 이러한 질문을 고려하기 시작해야 합니다.

SourcePixabay

오류 가능성

실수를 하고 교훈을 얻을 것입니다.
SourceAmeer Basheer

여느 관계와 마찬가지로 AI 시스템 및 제품과 함께 일하고 생활하는 법을 배우는 과정에서 충돌이 있을 것이며, 특히 기술을 연결하는 순간부터 기대한 만큼 기술이 작동할 것이라는 기대에는 근본적인 변화가 있을 것입니다.

우리는 스마트폰, 4K 텔레비전 또는 즉시 사용할 수 있는 기타 기술 및 전자 기기를 구입하는 것에 대해 이야기하는 것이 아닙니다. 인간으로서 우리는 특정 AI 애플리케이션이 우리에 대해 배우는 데 시간이 필요하고 잘못될 가능성이 있다는 사실을 받아들여야 합니다.

AI가 영화 추천에 서투를 때는 이러한 사실을 받아들일 수도 있지만 작업, 건강에 대한 결정, 인간 관계에서의 상호작용 등을 더 많이 자동화함에 따라 최종 사용자의 위험도 더 커지기 때문에 실수를 용인하기가 쉽지 않을 것입니다.

그렇다면 AIX 설계를 통해 AI에 대한 사람들의 경험과 기대치를 해결하려면 어떻게 해야 할까요?

“사람들이 좋아할 이야기를 어떻게 구상할 것인지, 그리고 그 과정에서 사람들을 이해하고 그들이 실제 추구하는 것을 얻게하고 그들이 하고자 하는 일이 무엇인지 알아내기 위해 어떻게 해야 할지에 대해 고심하고 있습니다.”라고 이스벨은 말합니다.

“이것을 경험의 개념으로 골똘히 생각할 때, 공감하고 원하는 것을 사람들에게 제공하는 것과 원하는 것을 생각해내게 하고, 원하고 있었지만 미처 깨닫지 못했던 새로운 것을 파악하도록 돕는 것 사이에는 흥미로운 상충 관계가 있습니다. 그리고 누군가를 행복하게 하거나 행복한 것처럼 느끼게 하는 것과 누군가를 더 나은 상태로 만드는 것 사이에도 상충 관계가 있습니다.”

오류 가능성은 어느 한 쪽에만 있는 것이 아닙니다. 산업계에서는 인간에 대한 정보를 AI에게 학습시키는 것에 대해 자주 이야기하지만 그 반대는 어떨까요? 최종 사용자의 오류 가능성과 AI 조작 및/또는 악용을 제한하는 최선의 방법도 고려해야 합니다.

이것은 AIX 프레임워크의 레벨 3 또는 레벨 4에서 특히 중요합니다. 혁신적인 자동화의 대상과 적용 규모에 대해 명확하고 뚜렷한 결정을 내리는 것은 사람이 아니라 AI이기 때문입니다.

예를 들면, AI 기기가 편향을 나타낼 때 심각한 형태의 오류가 발생하며, 이로 인해 엄청난 문제가 발생할 수도 있고 실제로 발생할 것입니다. 당신이 선호하는 것을 학습하여 당신과 동일한 편향을 가진 AI 시스템이 있다고 가정할 때, 그러한 편향이 나머지 가족, 개발자의 의도, 사회와 일치하지 않는다면 그 시스템은 고장난 것일까요?

리켄(RIKEN)의 국제업무담당 이사이자 일본의 미래 지향적인 소사이어티 5.0(society 5.0)의 창시자 중 한 명인 유코 하라야마 박사의 제안은 이러한 잠재적 편향 문제에 대한 우아한 해결책일 수도 있습니다. “예를 들면 남성이 사회 대부분을 지배한다면 그들만의 습관과 상호작용 방식, 권한 공유 방식이 존재하게 됩니다. 그러면 우리[여성들]는 일종의 외부인 처럼 느껴지고 우리만의 규범을 가지게 됩니다. 그리고 우리 여성이 남성의 규범에 적응하지 못한다면, 우리의 요구는 실제로 같은 수준으로 받아들여질 수 없을 것입니다. [따라서] 한쪽 편에 편향이 있을 수 있다면 반대쪽에서도 다른 편향을 만들 수 있습니다. 긍정적인 편향으로 사물을 설계하는 이 새로운 방식을 실험해보면 어떨까요?” AI가 의도적으로 편향을 통합하는지 여부를 판단하려면 AI가 내리는 결정의 결과적 특성과 더불어 애초에 그러한 결정을 내릴 필요가 있었는지 여부를 고려해야 합니다. 어느 쪽이든 AI와 우리의 관계 형성에는 시간과 노력이 필요할 것이며, 이는 우리 인간들 사이의 관계와 같습니다.

인터페이스 Interface

공통 표준, 플랫폼을 우선시해야 합니다.

시리(Siri)나 알렉사(Alexa) 같은 소비자 AI 비서의 최종 사용자들은 더 개인적이고 인간의 느낌과 유사한 AI를 만들기 위해 기술과 상호연결하는 새로운 방법을 학습하고 있습니다. 지난 몇 년간 음성 및 언어 처리의 발전은 우리가 AI에 대해 생각하고 상호작용하는 방식을 변화시키고 있습니다. 이는 시작에 불과합니다.

AI가 발전하고 우리 생활에 더 많이 도입되면서 이러한 시스템 및 제품과 상호연결하는 방식은 시스템을 이해하고 신뢰하며 함께 상호작용하는 방식에 직접적인 영향을 미칠 것입니다. 일부 AI는 최종 사용자의 직접적인 참여가 필요한 협업 도구 역할을 하는 반면, 다른 AI는 목적에 따라 백그라운드에서 실행되어 우리의 삶을 자동화하고 우리의 욕구를 예측합니다.

각 애플리케이션에는 고유한 인터페이스가 필요한데 그 중 일부는 직관적이고 일부는 재미있고 일부는 신체 언어 인식과 같은 잠재 의식일 수 있습니다.
그러나 AI 시스템들 간의 관계는 또한 최종 사용자가 기술과 상호작용하는 방식과 최종 경험에서 중요한 요소가 될 것입니다.

어펙티바(Affectiva)의 최고 마케팅 책임자이자 제품 전략 책임자인 가비 지더벨(Gabi Zijdervel)은 IBM 에세이에서 말하기를 AI를 가장 유용한 상태로 만들려면 기술자들이 함께 AI에 대한 공통 표준과 플랫폼을 수립해야 한다고 합니다. “소비자로서 내 전화와 내 차의 통신 문제로 고생을 하고 싶지는 않겠죠?”

“이들 시스템에서는 기업에서 사용하는 엔터프라이즈 애플리케이션에서부터 모바일 기기에 이르기까지 모두 서로 통신할 수 있어야 합니다. 그러나 상호운용성에 대한 표준은 없습니다. 이 문제, 즉 수직적 통합 및 사용 사례 통합을 해결하기 위해서는 산업계의 컨소시엄이 함께 뭉쳐야 할 것입니다.

지더벨(Zijdervel)은 AI 시스템이 서로 상호작용하는 방식을 결정하는 기계간의 상호관계, 핸드셰이크 및 방화벽의 흥미로운 지점을 다룹니다. 우리가 살고 있는 환경을 AI가 더 “수동적”으로 만드는 경우, 이것은 AI의 관점에서 특히 관련이 깊고, AI 개인 비서는 환경과 상호작용할 수 있게 됩니다.

SourcePossessed Photography

관계 형성은 쉽지 않아요

개인적이든 직업적이든, 협업이든 공동 생활이든 AI 시스템, 서비스, 제품은 우리 생활과 결합되고 있습니다. 인간과 기계는 이미 병원이나 공장에서 협력하면서, 길을 찾고 식사 준비를 돕고 있습니다.

AI가 우리의 삶의 다양한 영역에 성공적으로 융합되었는가의 여부는 복잡한 소프트웨어 기술을 받아들이고 이해하고 신뢰하는 우리의 능력에 달려 있습니다. AI는 본질적으로 도구이지만 인간으로부터 배우고, 인간의 필요를 예측하고, 결정을 내리고, 우리와 함께 탐색하는 도구라는 점에서 특별합니다. AI도 실수를 하겠지만 개선될 것입니다. 그리고 우리는 이를 받아들여야 합니다.

퀠컴 테크놀로지 네덜란드 B.V.의 기술 부사장인 맥스 웰링(Max Welling) 박사는 지루하고 복잡한 작업의 상당 부분을 AI가 대신하게 되는 것은 시간 문제일 뿐이며, 이는 물론 환영할 일이지만, 이를 위해서는 협력하는 방법을 배워야 한다고 말합니다. “인간이 기계와 함께 작업하고 알고리즘을 실행해야 한다는 것은 흥미있는 일입니다. 초기 단계에서 기계는 확실히 인간이 사용하는 일종의 도구입니다… 하지만 언젠가는 대부분 자동화될 것이며, 흔히 매우 힘든 작업이 자동화되기 때문에 그 결과는 사람이 수행하는 것보다 실제로 더 나을 것이 분명합니다. 기본적으로 상상이 가능한 모든 것이 어떤 식으로든 기계 학습으로 혁신되는 경향을 보일 것입니다. 이건 제 예측입니다.” 인간을 대체하는 AI에 대한 두려움은 그것이 업무용이든 범용이든 여전히 논쟁거리입니다. 그러나 우리 모두가 AI와 파트너가 되어 함께 일하고 공존해야 하는 가까운 미래에 대비해야 합니다.

AIX 설계는 더욱 중요해질 것입니다. 연구원과 개발자, 정책 입안자, 궁극적으로 최종 사용자에 이르기까지 AI 개발 관련 모든 이해관계자가 인간이 만드는 정서적 장벽과 인간과 AI가 협업하는 방식에 따라 목적에 맞는 설계를 고려하기 때문입니다. 우리가 그런 기술을 가지고 있는지 어떻게 확인합니까? 좋은 동반자나 동료 역할을 하는 AI를 설계하려면 어떻게 해야 할까요? 관계 형성은 어렵고 성공하려면 노력이 필요하다고 합니다.

AI와의 관계도 마찬가지라고 가정해야 합니다.

리포트 다운로드

관련 기술

AI는 빠르게 발전하고 있지만 스스로 발전하는 것이 아닙니다. 실제로 많은 다른 기술이 동시에 발전하여 AI의 발전을 더욱 가능하게 하고 가능성으로 가득 찬 신나는 미래를 만들고 있습니다.

테마 더보기