Ethics

윤리 분야는 AI에서 뜨거운 주제이지만 특정 소비자 관점에 대해서는 철저한 탐구가 수행되지 않았습니다. 이 주제는 AI가 어떻게 포괄적으로 개발되어야 하는지를 다루고 개인과 문화의 다양한 가치를 고려하는 동시에 개인 정보 보호 및 보안 책임에 대한 질문을 제기합니다.

AI 윤리 AI Ethics

실험실로 쓰는 거실

‘지옥으로 가는 길은 선의로 포장되어 있다’라는 속담은 역사를 통해 여러 번 사실로 입증되었습니다. 기업 윤리 연구에 따르면 대부분의 잘못된 행동이 발생하는 원인은 악의가 아니라 실수에 대비하지 않았기 때문입니다. 달리 말하면, 사람들은 자신이 틀렸음에도 선하고 옳다고 생각하는 경향이 있습니다.

그러나 AI의 문제는 그 의도가 본질적으로 선하거나 악하지 않으며, 일상적인 감각에서 진정한 생각을 하지 못한다는 것입니다. AI의 길은 흔히 불완전한 인간으로부터 수집한 지저분한 데이터로 포장되어 종종 불완전한 결과로 이어집니다.

AI 시스템이 본질적으로 오류를 일으킬 수 있다는 사실은 최근 몇 년 동안 계속해서 드러났습니다. 버락 오바마(Barack Obama)를 백인으로 만든 PULSE 알고리즘의 적용에서부터 범죄자 여부를 예측한다고 주장하는 본질적으로 인종 차별적인 안면인식 시스템에 이르기까지, 다방면에 적용된 AI를 통해 볼 수 있는 것은 기술이 아니라 인간이 편항되었다는 것이며, AI는 늘 우리가 기대하는 방식대로만 진행되지는 않는다는 것입니다. ‘무가치한 데이터를 넣으면 무가치한 결과가 나온다(garbage in, garbage out)’이라는 빅 데이터 속담의 결과입니다.

이미지 애플리케이션은 AI 애플리케이션과 관련하여 명백한 윤리적 문제를 제시합니다. 그러나 이것은 공정하고 대표성이 있으며 사회적 및 문화적으로 유동적인 인공 지능 시스템 및 기기를 만들기 위해서 우리가 직면한 문제를 피상적으로 다루는 것에 불과합니다.

그럼에도 AI는 우리의 주머니, 책장, 자동차 등에서 보편화되어가고 있고, 산업계에서는 감독이나 책임을 거의 부담하지 않는 상태에서 점점 더 많은 데이터를 수집하고 있습니다. 따라서 윤리는 이미 수많은 선언문과 프레임워크에서 많이 거론되는 영역이지만, 대부분은 실제로 구현하기 어렵다고 할 수 있습니다.

SourceBernard Hermant

요슈아 벤지오(Yoshua Bengio) 인터뷰

Mila 설립자

따라서 인공 지능 경험(AIX) 디자인의 맥락에서는, 윤리가 최종 사용자가 생각하는 윤리, 위험 또는 존중하는 가치를 고려해서 실용적이고 인간 중심적인 접근방식을 반영해야 합니다.

신뢰할 수 있는 AI에 대한 유럽 위원회의 윤리 지침(European Commission’s Ethics Guidelines for Trustworthy AI)은 정부가 산업을 형성하고 일반 시민을 보호하는 데 있어 수행할 수 있는 역할을 보여주는 훌륭한 예입니다. 캐나다에서 중국에 이르는 국가들은 유사하고 고상한 프레임워크를 가지고 있습니다.
그러나 2019년 튜링상(Turing Award)을 수상한 AI 연구자인 요슈아 벤지오(Yoshua Bengio)는 다음과 같이 설명합니다. “인간 중심이란 도구의 사용 방법, 목적 및 사용하는 인간에게 어떤 결과가 초래될지에 대하여 인간적 측면을 고려하는 것을 의미합니다. 이것이 중요한 이유는 그 도구가 점점 더 강력해지고 있기 때문입니다. 도구가 강력할수록 사용 방법에 더 주의해야 합니다.”

AI 윤리에 대해 상상할 때 우리는 DARPA가 후원하는 모의 공중전에서 인간 전투원을 파멸시킨 AI 전투기 조종사를 연상할 수 있습니다. 그러나 전쟁터에서 이 기술의 적용을 진행하는 동안, 책임성이 필요하다는 인식도 있어 최근 13개국에서 온 100명의 군 관계자가 모여 전투 시 AI의 윤리적 사용에 대해 논의했습니다.

그리고 인간 중심의 AI가 우리 삶의 기반이 됨에 따라 AI의 위협 대상은 전장이 아닌 개인 및 공공 장소가 될 것입니다.

포괄성

하나를 위한 AI 아니면 하나의 AI?

과학과 기술 분야가 일반적으로 다양성이 부족하다는 것을 안다면, 현재 AI 시스템에서 볼 수 있는 많은 편향의 핵심 요소는 일반적인 다양성에 대한 표현이 부족한 대학 및 기술 회사의 실험실 때문임을 쉽게 추론할 수 있습니다.
작년에 뉴욕대학교의 AI 나우 연구소(AI Now Institute)에서 발표한 연구에서는 “다양성 재앙”이 AI의 편향을 영구화시키고 있다고 결론지었습니다. 보고서에 따르면 페이스북과 구글의 AI 연구원 중 여성은 각각 15%와 10%에 불과합니다.

그러나 단순히 포괄성을 장려하려는 솔루션은 실제로 추가 피해를 유발할 수 있습니다. 동일 연구에 따르면 ‘여성의 기술 분야 종사’을 장려할 때 초점이 너무 좁아져서 다른 사람보다 백인 여성에게 특권이 부여될 가능성이 높다고 합니다. 보고서의 설명에서 따르면, “인종, 성별, 기타 정체성과 속성의 교차가 사람들의 AI 경험을 어떻게 형성하는지 인정할 필요가 있다”고 합니다.

그리고 성별 다양성이 중요하지만, 인종, 종교 및 장애도 포괄적인 AI 시스템을 구축할 때 고려해야 할 여러 요소의 일부입니다. 예를 들어 ‘Black in AI’‘LatinX in AI’는 인공 지능 분야에서 블랙과 LatinX의 존재를 높이는 데 전념하는 조직입니다.

그러나 이러한 조직은 주요 글로벌 AI 허브 중 하나인 미국에 뿌리를 두고 있습니다. 기술이 전 세계 사람들의 개인과 직업 생활에서 보편화됨에 따라 소득 수준에 관계없이 모든 인구가 AI와의 협업 및 동거에서 혜택을 받을 수 있게 하려면 어떻게 해야 할까요?

이미 수립된 많은 글로벌 이니셔티브들은 연구소에서부터 더 나은 대표성을 보장함으로써 더욱 평등한 AI의 미래를 위한 지원을 목표로 합니다. 아프리카 수리과학 연구소(African Institute for Mathematic Sciences)는 차세대 아인슈타인 포럼(NEF)을 주최하여 아프리카의 혁신가들이 전 세계와 협력할 수 있는 플랫폼을 구축하는 일에 전념합니다.
아프리카, 아시아, 중동남미 전역에 걸친 이 이니셔티브 및 다른 많은 이니셔티브들이 소비자 중심 기술을 만드는 회사에 더 큰 관점을 제공하길 바랍니다. 나이지리아 변호사인 키오마 놔오디케(Chioma Nwaodike)는 최근 블로그 게시물에서 다음과 같이 언급했습니다. “신흥 기술이 사회, 경제, 정치적 조건에 따라 지역과 국가에 각기 다른 영향을 미치는 방법에 대해 더 잘 이해하기 위해서는 개발도상국의 관점에서 인공 지능에 대해 논의해야 합니다.”

조지아공과대학교의 컴퓨팅 학과장인 찰스 이스벨(Charles Isbell)은 컴퓨팅의 다양성 향상을 옹호하는 사람이기도 합니다. 그는 가장 공평하고 접근 가능한 AI 솔루션을 구축할 수 있는 방법을 고려할 때 좋은 출발점은 다양성임을 믿습니다. “인간 중심의 설계에 대해 이야기하면서 사람들을 대화에 참여시킬 때는 단지 누군가를 데려온다는 의미가 아니기 때문에 매우 조심해야 합니다. 우리가 여러 사람을 불러들이는 것은 특정인이나 특정 부류의 사람을 위해 무언가를 설계하는 것이 아니라 광범위한 사람들을 위해 디자인하기 때문입니다. 그렇지 않은 경우, 실제로 시스템의 기능이 제한될 뿐만 아니라 광범위한 사람들의 지원을 위한 접근도 제한될 것입니다.” “따라서 설계자, 테스트 수행자, 프로세스에 관련된 사람들 사이에 다양성이 없다면, 해결책도 편협하게 될 것입니다. 일부에 집중하게 되면 도구가 점점 더 강력해짐에 따라 더 많은 사람들에게 더 큰 위험이 되고 더 많은 사람들을 해치게 됩니다.”

유코 하라야마(Yuko Harayama) 박사 인터뷰

리켄(RIKEN) 국제업무담당 이사

“대중적 행동을 취하는 것은 더 이상 정부만이 아니고 모든 민간 기업이 사회에 대한 책임을 느껴야 합니다. 그들의 제품이 사회 기능에 막대한 영향을 미치기 때문입니다.” 유코 하라야마(Yuko Harayama) 박사 리켄(RIKEN) 국제업무담당 이사

제공 가치

최종 사용자의 관념을 우선시해야 합니다.

“도구가 강력할수록 사용 방법에 더 주의해야 합니다.” 요슈아 벤지오 밀라(Mila)의 과학 이사

보다 포괄적이고 다양한 소비자 AI 제작팀을 갖는 것이 중요하지만 가장 성공적인 회사가 더 작은 규모의 경쟁자를 인수하여 힘을 통합하고 우리 삶의 기초가 되는 기술을 통제한다면 어떻게 될까요? 각기 다른 지역에서 자체 AI 산업을 구축하려고 할 때에도 여전히 대기업에 크게 의존하므로 그러한 기업과 관련된 많은 가치를 채택합니다. 그렇다면 AI는 할리우드나 K-팝과 같은 소프트 파워의 도구가 될까요?

가장 분명한 예는 미국과 중국 사이에서 이뤄지는 글로벌 AI 패권의 연합입니다. 이들 국가 간의 기술 분리는 이념과 가치의 근본적인 차이에 뿌리를 둔 윤리적 기반에서 이루어지는 경우가 많습니다.

이러한 분리 현상 때문에 금융 시스템, 의료 및 AI 기반 소비자 제품 및 서비스와 관련된 기술을 포함한 기술 분리가 나타날 것이라고 예측됩니다. 이로 인해 이미 구축된 시스템 값에 매핑되는 여러 시스템에 호환 장애가 발생할 수 있습니다. 그리고 항상 그렇듯이 양측은 도덕적 우월성을 주장하지만 가장 큰 대가를 치르는 것은 평범한 사람들일 것입니다.

이러한 우려로 인해 AI를 만들 때 미묘한 문화적 가치뿐 아니라 보편적인 인간 가치를 고려해야 한다는 요구가 증가하고 있습니다. CES 2020에서 엘리먼트 AI(Element AI)와 LG전자가 제안한 산업 프레임워크에 따르면 AI 시스템이 레벨 3으로 발전함에 따라 인과 학습을 사용하여 특정 패턴과 행동의 근원을 이해하여 긍정적인 행동을 예측하고 촉진할 것입니다.

이 단계의 AI는 집이나 자동차의 더 큰 상호 연결된 시스템과 다양한 기기의 기능을 이해하고 학습 결과를 공유합니다. 그러나 특히 서로 경쟁하는 회사들이 이러한 시스템을 만들면 가치 시스템이 상충하게 되는데, 개인의 가치, 문화, 정신세계 및 사회적 기대가 시스템 간에 공유되도록 하려면 어떻게 해야할까요?

RIKEN 및 일본 과학기술혁신위원회 전 집행위원인 유코 하라야마 박사는 “대중적 행동을 취하는 것은 더 이상 정부만이 아니고 모든 민간 기업이 사회에 대한 책임을 느껴야 합니다. 그들의 제품이 사회 기능에 막대한 영향을 미치기 때문입니다.”라고 설명합니다. “그래서 비즈니스 스쿨에서 배운 것처럼 이익을 극대화하는 대신, 행동이 사회에 영향을 주도록 책임을 지는 것입니다. 우리는 모두 인간이기 때문에 스스로 판단하여 행동하므로, 회사 내에서의 행동을 포함하여 자신의 행동에 대해 책임이 있음을 의미합니다.”

지배구조

공유할 데이터를 결정하는 것은 기계가 아닌 인간이어야 합니다.

AI의 발전과 함께 사물 인터넷(IoT), 5G 및 엣지 컴퓨팅과 같은 인접 기술이 발전함에 따라 개인정보 보안 문제와 고용주, 집주인, 교육자 및 정부가 AI 시스템을 중복 소유하고 운영하는 것에 대한 심각한 우려가 발생하고 있습니다. 이러한 다양한 시스템의 우선 순위와 사용자가 시스템을 중지할 수 있는 기능과 관련하여 많은 윤리적 질문에 답해야 합니다.
하라야마 박사는 최근 일본 정부와의 작업을 통해 Society 5.0를 창시한 연구원 중 한 명이며, 그녀가 창시한 Society 5.0는 AI 시스템 및 기타 기술이 기본이 되는 미래도시를 개념화하였습니다.

이 연구에서는 현대적이고 안전한 Society 5.0을 구축하기 위해 강력한 사이버 보안과 안전을 갖춘 환경을 구축해야 한다고 주장합니다. 기술개발을 통하여 공유할 개인 데이터의 양, 개인의 사생활 보호 수준, 공개적으로 사용 가능한 정보의 종류를 선택할 수 있도록 하는 것이 특히 중요합니다.
사람들이 안전 기능을 제어하고, AI가 도출하는 계산과 결론의 과정 및 논리를 설명하고, 무엇보다 비상 시 AI에서 인간으로 제어 전환을 원활하게 수행하기위한 인터페이스를 제공하려면 연구자들은 AI 기술개발 시 무엇을 고려해야 할까요?

더욱 우려되는 것은 강력한 AI 시스템과 악의적인 행위자 간에 있을법한 인간-기계 협업입니다. 최근 유니버시티 칼리지 런던(UCL)의 연구원들은 학술논문, 뉴스 및 대중 문화를 기반으로 AI 기반 범죄 20건을 정리하였습니다. 무인 차량을 무기로 사용하는 등 많은 사례를 통해 실제로 AI를 통해 가장 큰 위협은 인간에게서 비롯된다는 점을 알 수 있습니다. 그렇다면 개발자는 사람들이 애플리케이션을 잘못 사용할 수 있는 모든 가능성에 대해 고려해야 할까요? 여기에서 정부의 역할은 무엇일까요? 정부는 이러한 변화를 따라갈 수 있을까요?

“현대 민주주의 사회에 살고 있는 우리 대부분은 정부가 특정 규제를 제정하여 삶을 더 안전하게 만들 여지가 있다고 생각합니다.” 유명한 로봇 공학자이자 발명가인 로드니 브룩스(Rodney Brooks)의 설명입니다. “우리는 고속도로에 규칙이 있다는 것을 알고 있습니다. 자동차에는 확실한 안전 기능이 있어야 하며 사람들은 확실한 규칙에 따라 운전해야 합니다. 그러나 AI가 등장하면서 이러한 규칙을 만드는 사람들이 현실에 맞는 규칙을 제정하지 못하는 경우가 맞습니다. 이로인해 이러한 규칙들이 때로는 너무 불필요하게 가혹한 경우도 있습니다.”

퀠컴 테크놀로지 네덜란드 B.V.의 기술 부사장이며 펠로우 AI 연구원인 맥스 웰링(Max Welling) 박사는 다음과 같이 동의합니다. “이러한 기기가 점점 더 복잡해지면 변화되는 기기의 인증은 어떻게 할까요? 우리는 이미 매우 복잡한 엔지니어링 부분인 비행기와 자동차에 대해 인증하고 있습니다. 그러나 이러한 제품들이 스스로 학습하게 되면 인증은 점점 더 어려워집니다. 그리고 이러한 기기의 인증 장벽을 극복하여 사용자에게 안전하고 개인정보를 보호하며 또한 공정하고 다른 모든 중요한 차원을 보장할 수 있게 한다면, 이것이 바로 진정한 의미에서의 학제간 노력입니다. 우리는 이러한 질문을 기술자에게 맡기면 안 됩니다. 우리는 세상에 대해 매우 제한된 시각을 갖고 있기 때문에 이러한 것이 매우 중요하다고 생각합니다.”

SourceLianhao Qu

데이터 프라이버시

구형 AI가 초래하는 미래 위험
SourceFranki Chamaki

인공 지능 시스템은 개발 전반에 걸쳐 ‘견제와 균형’이 필요합니다. 그러나 현재 소비자 AI에 대한 보호장치는 거의 없으며 산업용 또는 군사용에 중점을 둔 AI보다 위험하지 않은 것으로간주됩니다. 그러나 개인 AI 시스템이 더 정교해지고 다른 시스템과 융합되면서 시스템의 남용에 더 취약해질 수 있습니다. 바로 이런 이유로 인해 인간 중심의 디자인은 신뢰와 채택을 보장하는 데 가장 중요한 요소가 될 것입니다.

할리우드 영화에서 인공 지능이 인류를 위험에 빠뜨리는 가장 흥미로운 예시 중 대부분은 초감각적인 컴퓨터와 야심이 넘치는 로봇을 위주로 표현되지만, 평범한 사람들에게 가장 큰 위협 중 하나는 기술에 대한 관심을 갖지 않는 것입니다.
3A 연구소의 알렉스 자피로글루 (Alex Zafiroglu) 부국장은 다음과 같이 말합니다. “인간 중심이라는 말은 때때로 시스템을 사용하고 있거나 시스템의 영향을 받는 최종 사용자에게 주목하는 것을 지칭하는 데 익숙해졌습니다. 진정한 인간 중심이란 이러한 AI 솔루션의 전체 개발, 배포 및 폐기 주기에 걸쳐 인간에 주목하는 것이라고 생각합니다.”

AI가 확산되고 삶의 기반이 됨에 따라 우리가 알지 못하는 동안 조용하게 작동하는 많은 시스템들을 통해 우리는 편안한 삶을 이어나가고 있습니다. 약 먹을 시간을 알려주는 스마트 거울 혹은 가정의 전기 사용량을 제어하는 AI와 같이 여러분이 익숙하게 사용하는 제품을 제조업체가 생산하지 않는다거나 또는 그 제조업체가 폐업하게 된다면 어떤 일이 발생할까요? 대부분의 선진국에서는 물, 전기, 심지어 인터넷까지 필수 서비스로 자리 잡고 있습니다. 인공 지능 시스템도 이와 같은 필수 서비스로 자리 잡게 될까요?

자피로글루(Zafiroglu)는 “우리는 소비자가 AI 지원 서비스 및 솔루션을 채택할 때 직면하는 문제에 대해 고려하게 됩니다. 가장 중요하게 고려할 문제 중 하나는 수집되는 데이터, 수집 수행자, 보관 위치, 사용 및 재사용 방법입니다.”라고 말합니다. “그리고 장벽은 데이터 사용 및 수집의 투명성이라고 생각합니다. 세상에 대해 무엇을 어떻게 알고 있는지, 세상에 존재하는 것들을 어떻게 분류하고 이해하는지에 대해 이야기하고, 그에 따라 대응해야 합니다.”

목적

데이터 핸드셰이크 및 방화벽

어떤 면에서 데이터 프라이버시와 AI는 기름과 물로 비유됩니다. 한편으로 딥 러닝 모델의 경우, AI에서 원하는 종류의 경험을 학습, 개선 및 제공하기 위해서는 방대한 양의 데이터가 필요합니다. 그러나 다른 한편으로 더 많은 애플리케이션이 제공되고 가정의 모든 가전 제품이 ‘스마트’해짐에 따라 우리의 거실이 실험실이 되어 더 나은 개인화된 경험을 제공하기 위해 우리 자신의 데이터를 사용하는데, 대중은 이 사실을 거의 파악하지 못합니다.

최근 넷플릭스 다큐멘터리 소셜 딜레마(The Social Dilemma)에서 많은 사람들에게 강조했듯이 사용자 자체가 판매되는 제품이며 우리 자신의 데이터가 우리에게 불리하게 사용될 수 있습니다. 우리 사회는 개인정보의 중요성을 지속적으로 강조하지만, 무료 여행을 할 수 있는 기회를 얻을 수 있다면 이러한 정보를 기꺼이 넘겨줍니다. 그렇다면 우리 삶의 유용한 목적을 위해 사용되는 AI가 맡은 일을 더 잘 수행하기 위해 데이터를 수집, 저장, 공유 및 사용하는 경우 어떤 의미가 있을까요?

목적은 우리가 공유하는 데이터 및 시스템의 맥락과 마찬가지로 중요한 개념입니다. 건강 데이터를 건강 앱과 공유하고 고용주와 업무 데이터를 공유하는 데 거리낌이 없을 수도 있지만, 코로나19 위기가 보여주듯이 우리의 가정은 이제 오락, 음식, 교육, 은행 및 사회 생활은 물론 건강과 일의 중심 허브가 되었습니다. 따라서 AI 경험 디자인은 우리가 데이터를 사용하고 공유하는 방식을 고려함으로써 AI가 목적을 달성하는 동시에 특정 데이터를 제자리에 유지하는 적절한 방화벽을 생성하도록 적절한 조화를 구축하는 것이 점점 더 중요해지고 있습니다.

IDEO의 이사인 보 팽(Bo Peng)은 고객과 협력하여 명확한 목적이 솔루션에 적용되고 AI 솔루션에 구축된 데이터가 그 목적을 벗어나지 않도록 합니다. “초기에 개발된 AI 기반 제품이나 서비스에 편향이 발생하는 것은 피할 수 없는 일입니다. 이러한 편향은 여러 요소를 충분히 고려할 수 없기 때문입니다. 현재로서는 이를 해결할 만한 특별한 해결책은 없지만 우리가 참여한 많은 프로젝트를 통해 고안한 몇 가지 원칙을 제안하고자 하는데, 이는 이러한 설계에 도움을 줄 것입니다. 첫째, 데이터 인식은 진실이 아닙니다. 해당 데이터 수집용으로 설계한 장치는 결국 사람이 설계한 것입니다. 데이터의 정확성뿐만 아니라 수집할 데이터와 제외할 데이터를 결정하는 데에도 내재된 편향이 있습니다.”

SourceLuke Chesser

아시모프(Asimov)는 뭔가 알고 있었다

AI에 대한 윤리 논의는 아무리 많이 해도 부족하지 않으며 이는 좋은 일입니다. 이러한 논의를 통해 이미 긍정적인 영향을 미치는 일부 변화가 나타나고 있습니다. 예를 들면, IBM의 연구에 따르면 전 세계 AI 전문가 중 85%가 최근 몇 년 동안 업계가 더욱 다양해지고 있다는 의견을 냈습니다. 대부분의 응답자는 다양성이 AI 기술에 긍정적인 영향을 미쳤다고 말했습니다.

이와 마찬가지로 프로세스 초기부터 고려되던 사항은 인간 가치 적용, 인간 중심 디자인에 대한 인식 증가, 보안을 보장하고 AI 시스템의 오용을 방지하기 위한 보호장치 생성에 대한 질문이었습니다. 그러나 우리는 이러한 노력에 더욱 매진해야 합니다.

전 세계에서 많은 윤리연합회와 위원회가 설립되는 것도 중요하지만, 한편으로는 이들이 기술적 식민주의의 도전과제를 지속시키고 있습니다. 페이팔의 수석부사장 겸 최고기술책임자인 스리 시바난다(Sri Shivananda)는 다음과 같이 말합니다. “우리가 사는 세상에서 AI는 이미 우리 주변의 경험을 구동하고 있습니다. 계속 AI를 주목하게 만드는 것은 AI가 집단적 노력에 기여하는 엄청난 힘입니다. 그 힘에는 많은 책임이 따르며 그 책임은 업계에서 우리 모두가 존중해야 하는 것입니다.

“우리가 하고 있는 일은 이러한 첫 경험을 바탕으로 고객, 커뮤니티, 지구 전체에 대한 우리의 의무를 이해하고, AI의 기능에 실질적 방호 수단을 설치하려는 것입니다. 우리는 AI 구현 방법에 대한 새로운 표준과 모범 사례를 만들고 해당 윤리 강령을 준수하기 위해 업계 전반에 걸쳐 협력해야 합니다.”

우리의 가장 개인적인 공간에서 AI의 소비자 애플리케이션이 성공하려면 교육과 책임은 물론 인간 중심 디자인이 필수적입니다. 생명의 미래 연구소(Future of Life Institute)에서 설정한 일련의 원칙처럼 프레임워크가 유용한 지침이 될 수 있지만 업계, 정책 입안자 및 소비자 스스로가 이를 준수해야 합니다.

미국 작가 아이작 아시모프(Isaac Asimov)는 인공 지능이 제기하는 윤리적 문제에 대해 생각하기 시작한 최초의 사람들 중 한 명이며, 다음과 같이 말했습니다. “지식이 위험을 초래한다면 모르는 게 약이라는 말에 수긍할 수가 없었습니다. 해결책은 항상 지혜여야만 한다고 생각했습니다. 위험을 부정하는 대신에 안전하게 대처하는 방법을 배웠습니다.” 실제로 AI가 나아갈 길은 지적 호기심, 관심, 협력을 통해 인도되어야 합니다.

그렇다면 우리의 잘못된 기질을 배운 AI가 윤리적 문제를 제기하면 어떻게 해결할 수 있을까요? 소비자 AI를 디자인할 때 인간의 편향 없이 접근성과 포용성을 갖춘 최상의 의도를 갖도록 하는 방법은 무엇일까요? 현재 정답이나 오답은 없지만 올바른 방향으로 출발하는 데 도움이 되는 흥미로운 질문은 많이 있습니다.

벤지오는 “음, 저는 천성적으로 낙관적이지만 동전의 한 면만 보면 안 된다는 것도 압니다.”라고 말합니다. “위험을 주시하고 우려를 제기하는 사람들의 말도 들어야 합니다. 그래서 우리는 회사, 정부, 시민이 필요하다고 생각합니다… 사회의 규칙은 함께 좋은 방향으로 나아가도록 사업을 규제하는 법률인데, 이 규칙을 구성하는 방법에 대해 함께 의견을 모아야 합니다.”

리포트 다운로드

선한 A.I.

영화와 TV에서 많이 등장하는 AI가 인간을 위협하고 AI가 잠재적으로 유해한 목적으로 사용된다는 최근 뉴스에도 불구하고, AI는 강력한 힘을 지닌 도구일 뿐입니다. 실제로 AI는 이미 우리의 삶을 개선하고 있습니다. 다음은 AI가 선한 용도로 사용되는 다섯 가지 예입니다.
  • 01. 보건 의료
    Al를 의료 분야에 사용한 몇 가지 예로는 의료 전문가를 지원하여 환자 간호 개선, 최선의 치료법과 관련된 조언, 신약 식별, 임상 시험 가속화, 유방암 발견 등이 있는데, 이러한 사용 사례는 점차 증가하고 있습니다.
  • 02. 인권
    안면 인식을 통한 실종자 찾기부터 여성에 대한 트위터 학대 추적에 이르기까지 Al는 이전에 간과되었던 인권 문제에 영향을 주고 있습니다.
  • 03. 교육
    대학들은 소외된 학생, 높은 중퇴율, 구시대적인 “두루 적용되도록 만든” 방식과 같은 비효율성 문제에 직면해 있습니다. Al는 학생들이 개인의 요구를 기반으로 학습하는 맞춤형 접근 방식을 통해 개인화 학습을 가능하게 함으로써 어느정도 이러한 문제 해결에 도움을 주었습니다.
  • 04. 세계적 기아 문제
    Al는 농업 생산성을 높이는 데 중요한 역할을 하고 있으며 세계적 기아 문제를 종식시키고 UN의 지속 가능한 개발 목표를 달성하도록 돕고 있습니다. 식량 부족 예측, 해충 발생 인지, 수확량 개선 등 Al는 수십억 인구의 식량 공급을 돕고 있습니다.
  • 05. 기후 변화
    인간이 사용하는 에너지의 양 예측에서부터 공급망의 효율성, 새로운 재료의 발견, 대기 중 CO2 제거에 이르기까지 Al는 다양한 방식으로 인간이 초래한 피해의 복구에 사용되고 있습니다.

테마 더보기