투명성 Transparency
목적 달성을 위해 많은 노력이 필요합니다.
- 신뢰[trust]
- 명사
- 사람이나 사물의 무결성, 힘, 능력, 보증 등에 대한 의존. 확신.
- 동사(목적어 없이 사용)
- 사람 또는 사물에 의존하거나 확신을 갖다(보통 in 또는 to가 뒤따름) : 다른 사람의 정직함을 신뢰하다. 운에 맡기다.
- 자신감을 갖다. 희망하다. 신뢰하기만 하면 일이 잘 풀린다.
- 테크래시[techlash]
- 주요 기술 회사의 권력, 사용자의 사생활 보호, 정치적 조작 가능성 등에 대한 우려 때문에 발생하는 강력한 반발.
이 글의 독자들은 신뢰가 인간관계에서 얼마나 중요한지 너무나 잘 알고 있을 것입니다. 한 사람에게 마음을 열고 자신을 돌보고 지지할 것임을 확신하기까지 그를 이해하고 신뢰하는 데에는 몇 년이 걸릴 수 있습니다. 마찬가지로 기업이나 기타 기관에 민감한 정보를 제공하기 전에 더 좋고 생산적이며 만족스러운 삶을 살도록 돕는 대가로 해당 정보를 책임감 있게 사용하고 보호할 것이라는 믿음이 있어야 합니다.
사람 또는 사물의 안전과 보안을 평가하려면 이해가 필요합니다. 신뢰를 구축하려면 오랜 시간이 걸리지만 매우 짧은 시간에 이를 잃을 수 있습니다.
-
스리 시바난다 인터뷰
페이팔 수석부사장 겸 최고기술책임자
“강력한 대상에 대해 늘 그렇듯이 사람들이 그것을 보지도 이해하지도 못할 때 결국 두려워하게 되고 피하게 됩니다. … 고객은 왜 무슨 일이 일어났는지 알 수 있어야 하고 … 플랫폼은 왜 그런 선택을 했는지 설명할 수 있어야 합니다.” 스리 시바난다 페이팔 수석부사장 겸 최고기술책임자
소비자는 옳은 일을 하기 위해 수십 년 동안 에너지, 자동차, 통신 및 금융 서비스와 같은 다른 산업에 비해 기술 부문을 더 많이 신뢰하였습니다. 그러나 변화의 징후가 보입니다. 데이터 유출, 소셜 미디어의 “딥 페이크(역주: AI의 조작 기술)”, 민감한 정보의 노골적 오용을 통한 이익 추구 및 점점 더 커지는 지배력, 일상 생활에서 기술 회사의 독점 경향 등이 이러한 신뢰약화에 기여했다고 말하는 사람들도 있습니다.
최근 캡제미니(Capgemini) 보고서는 AI에 대한 사람들의 신뢰에 어떻게 영향을 미치는지 보여줍니다. 응답자의 75%는 AI로 구동되는 서비스에 대하여는 투명성이 강화되기를 원한다고 말했습니다. 73%는 AI가 자신을 공정하게 대하는지 알고 싶어합니다. 76%는 기업이 AI를 사용하는 방식에 대해 추가 규제가 필요하다고 생각합니다.
한편, 에델만(Edelman)의 최근 글로벌 연구에서 소비자의 61%는 기술 변화의 속도가 너무 빠르다고 느꼈습니다. 66%는 기술로 인해 보거나 듣는 것이 진짜인지 여부를 알 수 없게 될 것이라고 걱정합니다. 61%는 정부가 신기술을 충분히 이해하지 못하여 효과적인 규제를 할 수 없다고 생각합니다.
“소비자가 [AI] 경험을 신뢰하려면 모든 데이터를 실제로 처리하는 조직을 신뢰해야 합니다. 페이팔의 수석부사장 겸 CTO 스리 시바난다는 말합니다. “데이터는 AI가 고객과 기업 간의 관계를 이끌어가는 데 필요한 연료이며 오랜 시간 동안 구축된 신뢰를 기반으로 합니다.” “AI를 기반으로 경험을 제공하는 플랫폼이나 기업에 대하여 신뢰할 수 있을 때, 고객은 비로소 표면적으로 드러난 경험 이면에 있는 AI를 암묵적으로 신뢰하기 시작합니다.”
캡제미니 연구는 이 점을 보강합니다. 62%는 AI 상호작용이 윤리적임을 보여주는 회사에 더 높은 신뢰를 둘 것이라고 말했습니다. 59%는 그러한 회사에 대한 충성도가 더 높을 것이라고 했고, 55%는 그러한 회사에서 더 많은 제품을 구매하고 소셜 미디어를 통해 높은 평가와 긍정적인 피드백을 제공할 것이라고 했습니다.
따라서 투명성은 AI 개발자, 정책 입안자 및 최종 사용자가 AIX 설계에 접근할 때 통과해야 하는 필수적 렌즈가 됩니다. 최종 사용자와 기술 간의 적절한 정보 교환을 위해 설명 가능성, 목적 및 데이터 관리에 대한 중요한 질문을 고려해야 하지만, 윤리에 대한 논쟁과는 다른 방식으로 접근해야 합니다.
설명 가능성 Explainability
의사결정 과정에 대한 인간 개입인간의 삶에 영향을 미치는 결정을 내릴 때 기계의 역할이 계속 커짐에 따라 기계를 이용한 이러한 의사결정 과정을 설명하는 것이 더욱 중요해질 것입니다.
Why Not Lab의 운영자이며 디지털 시대의 글로벌 노동자 권리 옹호자인 크리스티나 J. 콜클로프(Christina J.Colclough) 박사는 “우리는 이러한 시스템을 도입하거나 이러한 시스템에 대한 신뢰를 구축하기 위해 노력해야 합니다.” 라고 말합니다. “그리고 이것을 실현하려면 투명성, 공정성 및 감사 가능성의 요건이 필요하며, 이를 통해 나에 대해 나보다 더 많이 알고 있는 이 알고리즘 시스템이 나를 제어한다는 느낌을 주지 않도록 하는 것입니다.”
본질적으로 기업은 “블랙박스”를 열고 내부에서 일어나는 일을 소비자와 규제 기관에게 알림으로써 AI의 권장사항이 공정하고 정확하며 신뢰할 수 있는지 또는 개인이나 사회의 최선의 이익을 위한 것인지 판단할 수 있도록 해야 합니다.
“강력한 대상에 대해 늘 그렇듯이 사람들이 그것을 보지도 이해하지도 못할 때 결국 두려워하게 되고 , 피하게 됩니다.” 시바난다는 덧붙입니다. “기술을 사용하여 AI 기반 경험을 구축할 때 설명 가능성 구현을 확보하는 것이 중요합니다. 고객은 제품에 무슨 일이 일어났는지 알 수 있어야 하고 … 경험 및 플랫폼은 왜 그런 선택을 했는지 설명할 수 있어야 합니다.”
이러한 기능는 AI 시스템의 결정이 삶과 죽음의 문제가 될 수 있는 의료와 자율 주행과 같은 영역에서 점점 더 중요해지고 있습니다. 구글과 IBM을 비롯한 많은 회사는 이미 이 분야에 대해 약속을 했습니다.
우리가 설명 가능성에 접근하는 범위는 개인정보 보호, 보안 및 정확성에 대한 필요에 따라 균형을 맞추기 위해 다양해질 것입니다. 너무 많이 공개하면 시스템이 피해를 입거나 손상될 수 있을까요? 그러나 설명 가능성을 다루기 위해 어느 정도 노력하지 않는다면 개발자는 질문과 비판에 노출될 것입니다.
따라서 설명 가능성은 의사결정 과정에 인간을 배치할 때 도움이 됩니다. 먼저 의사결정 방식을 이해한 다음 필요한 맥락을 제공하여 사용자가 AI 경험을 더욱 세분화하고 최적화하도록 합니다. 그 결과 사용자는 AI의 조언에 대하여 일상적인 활동에 대한 것뿐만 아니라 중요한 의료문제 또는 자율적 결정이 자신의 웰빙에 크게 영향을 미치는 기타 영역 등 더욱 심각한 문제에 대해서도 더 신뢰할 수 있게 됩니다.
-
크리스티나 J. 콜클로프(Christina J.Colclough) 인터뷰
Why Not Lab의 운영자, 디지털 시대의 글로벌 노동자 권리 옹호자
의사 소통 Communication
고객 파악AI 지원 제품과 서비스에는 여러 산업 분야에서 분명한 이점이 있습니다. 예를 들면, 의료 부문에 AI를 이용하면 환자 치료를 개선하는 데 큰 진전을 이룩할 것입니다. 도시는 AI를 통합하여 교통 흐름을 개선하고 도시 계획을 지원합니다. 소비자 수준에서는 사람들의 개인 생활 및 직업에 긍정적 또는 부정적 영향을 주는 무수히 많은 제품이 현재 시장에 나와 있으며 개발 중입니다. 이러한 초기 경험은 모든 일이 순조롭게 진행된다는 가정 하에 신뢰를 높이는 데 도움이 됩니다.
AI가 점점 더 보편화됨에 따라 불안을 떨치고 신뢰를 구축하려면 AI가 소비자나 시민에게 어떤 영향을 미칠 것인지 요약해주는 명확한 의사 소통 계획이 그 어느 때보다 중요합니다.
“고객을 위한 AI 기반 경험을 구축할 때 우리 모두가 넘어가지 말아야 하는 최종 라인은 고객과의 신뢰라고 생각해야 합니다.”라고 시바난다는 덧붙입니다. “신뢰를 구축하려면 고객이 회사에 대해 접하는 모든 것, 즉 핵심 가치 시스템, 실행 방식, 고객 전화에 응답하는 방식, 문제를 시정하는 방식 등을 통해 입증해야 합니다. 이 모두는 고객 중심에서 비롯됩니다.”
이러한 책임의 상당 부분은 마케터와 기업 의사 소통 전문가에게 있습니다. 이들은 모든 의사 소통 노력의 중심에 사람을 배치해야 합니다. 고객 파악! 고객의 두려움, 우려, 욕구 및 고객의 소원은 무엇입니까? AI에 대한 이해 수준은 어느 정도입니까? 고객의 긍정적 및 부정적 인식은 무엇입니까? 사회의 어떤 세력이 고객의 의견에 영향을 미칩니까?
의사 소통 전문가는 이러한 질문을 해결하기 위해 외부 메시지로 AI 제품의 명확한 이점을 설명하도록 고려하고, 실제 사례를 통해 이러한 이점을 달성하는 방법을 보여주고, AI와의 직접 상호작용 및 AI ‘교육’에 소비자를 참여시켜 AI에 대한 이해도를 높임으로써 AI에 고유한 편향이 있다는 인식을 불식시켜 소비자가 과정의 일부라고 느끼도록 합니다. 또한 잘못된 정보나 선입견에 진실하게 대응하고, AI 지원 제품 또는 서비스는 소비자에게 최선의 이익과 안전을 제공하려 한다는 것을 알려 안심시킵니다.
매킨토시 그룹(McIntosh Group)의 공동 CEO인 제프 포지(Jeff Poggi)에 따르면 소비자가 AI 채택 시 핵심 요소는 간결성과 접근성에 기반한 의사 소통이라고 합니다.” “진행 상황을 소비자들이 정확히 알 수 있도록 정직하고 진정성 있는 대화를 해야 합니다. 여기서 발생하는 문제는 법률 시스템이고, 불행히도 이것이 기업을 매우 어렵게 만들고 있다는 것입니다. 스포티파이(Spotify)나 애플 음악 등에 가입할 때 음악 서비스 계약서에 서명하면서 그 내용을 모두 읽는 사람은 아무도 없습니다. 이러한 공개문의 길이는 짧고 간단해 보일 수 있지만 요즘 사람들은 기본적으로 이를 무시합니다. 장차 발생할 거래에서 내 개인 데이터를 더 많이 공유한다면 내 개인 데이터에 발생할 상황에 대해 이해해야 할 것입니다. 복잡한 법적 체계를 매우 간단하고 쉽게 소화하고 이해할 수 있는 수준으로 낮추어 사람들이 겁먹고 도망치지 않도록 복잡하지 않게 만드는 방법을 찾아야 합니다.”
의사 소통은 투명성이라는 더 큰 주제와 관련하여 AI 경험 설계의 필수 요소입니다. 최종 사용자가 기술에 대해 더 많이 이해하고 현실적인 기대를 가질 때 훨씬 더 나은 경험을 하게 될 것입니다. 설명 가능성과 더불어 의사 소통기능은 지속적인 설명을 통해 최종 사용자가 자신의 경험을 연관시키고 AI 서비스 및 제품에서 최대 가치를 도출하도록 해 줍니다.
목적
힘과 잠재력이 불충분한 경우AI는 진보를 통해 사용자의 생활에 원활한 가치를 더하는 방법을 지속적으로 학습하면서 더욱 보편화될 것입니다. 지역적 맥락 및 외부 지식 소스를 사용하는 이 “목적 중심 AI”는 사용자의 경쟁 요구와 이익 사이에서 균형을 유지하고 사용자 행동에 영향을 주어 더 높은 목적을 달성하기 위해 창의적인 접근방식을 취할 수 있습니다.
그러나 이를 달성하기 위한 기술적 고려사항, 그리고 더 중요한 윤리적 고려 사항은 인간 본질의 핵심을 공격합니다.
사용자에게 AI 기반 삶을 채택하도록 요구하면서 그 복잡성을 이해하려면 자신을 살펴보면 됩니다. 우리는 직장, 집, 친구, 직업 관련 네트워크의 사람들을 대면할 때와 식료품점, 취업 면접, 휴가 등 상황에 따라 다른 페르소나(모습)를 보이게 됩니다. AI는 이러한 각 페르소나 내부의 경계를 염두에 두고 사용자를 돕는 방식으로 수행해야 합니다. 그러나 직장과 가정 생활 사이를 넘나들거나 공공연하게 상업적이거나 미묘하게 악의적 방식으로 권고함으로써 반드시 사용자의 삶을 크게 변경하거나 영향을 줄 필요는 없습니다.
“인권과 더불어 진정 인간의 권리라고 부르는 것을 유지하려면 어떻게 해야 합니까?” 콜클로(Colclough) 박사는 묻습니다. “인간의 상품화를 피하려면 어떻게 해야 할까요? 그저 수많은 데이터 포인트와 알고리즘에 효과를 주는 요소로 보지 않고, 아름다움, 나쁜 면과 좋은 면을 가진 인간으로 볼 수 있을까요? 극도로 디지털화된 세상에서 의미있고, 사랑 받고, 존중 받으려면 어떻게 해야 할까요?”
이를 위해 공급 또는 가치 사슬 등 데이터의 내외부 입출력을 모두 고려할 수 있습니다. 상황, 감정, 사실, 개인, 상업, 문화 등의 데이터 스트림은 단일 또는 상호 연결된 도로를 통해 무수한 소스에서 현재 직장, 가정 및 여가 생활 주변의 AI 지원 제품에 전달됩니다. 기본적으로 알고리즘과 그 배후의 개발자가 소비자의 삶을 관리할 수 있게 하려면 소비자의 신뢰 수준이 매우 높아야 합니다.
“인권과 더불어 인간의 권리를 유지하려면 어떻게 해야 합니까?” 인간의 상품화를 피하고 인간을 그 자체로 보며 그저 수많은 데이터 포인트와 알고리즘에 효과를 주는 요소로 보지 않으려면 어떻게 해야 할까요? 극도로 디지털화된 세상에서 의미있고, 사랑 받고, 존중 받으려면 어떻게 해야 할까요?” 크리스티나 J. 콜클로 박사 Why Not Lab
“인간의 두뇌는 놀라운 컴퓨팅 장비입니다. 그리고 우리는 오늘날 세상사를 처리하면서 무의식적으로 하는 모든 계산을 완전히 이해하지 못합니다.”라고 Lyft 자전거 및 스쿠터 본부장인 데이비드 포스터(David Foster)가 말합니다. “그러면 AI가 이와 같은 좋은 결정을 내리도록 [계산]을 모델링하는 방법은 무엇일까요?”
AI가 “성공적인지” 또는 할당된 목적이 자신에게 적합한지를 소비자가 평가할 수 있도록 투명해야 하며 AI 지원 제품 또는 서비스의 “목적”을 공개적으로 전달하는 것이 중요합니다.
개발자와 AI 시스템 및 제품을 구축하는 회사를 위해 쉬운 방정식으로 해석하자면, 목적 없는 AI는 가치도 없다는 것입니다. 그리고 AI가 삶에 가치를 더하지 않는다면, AI는 단순히 삶에 방해가 된다고 여겨 거부될 것입니다.
우리의 목적과 우리가 사용하는 AI의 목적은 미래에 더욱 밀접하게 연관될 것입니다. 이 목적들이 정렬되었는지 확인하는 것이 좋습니다.
데이터 프라이버시
신뢰 요인 개선이 관건데이터 프라이버시와 보안은 오늘날 기업에서 가장 시급한 문제 중 하나입니다. 수십 년 동안 소비자는 신생 기술 회사들과 거래를 해 왔습니다. 우리는 앱 또는 서비스에 무료로 접근하기 위해 개인 데이터를 기꺼이 포기할 것입니다.
거래에는 숨겨진 위험이 수반된다고 생각되며 이에는 사생활 침해, 소셜 미디어 플랫폼이 기업에 매각한 정보, 무해한 게임으로 위장하여 악의적 목적으로 사용자 정보를 수집하는 악성 앱 등이 있습니다.
PwC의 최근 설문조사에 따르면 개인정보 보호와 관련하여 응답자의 60%는 자신과 거래를 하는 회사가 언젠가는 데이터 침해를 겪을 것으로 예상한다고 합니다. 응답자의 34%는 자신의 데이터를 보유한 회사 중 하나 이상이 이미 침해를 당했다고 하는데, 이는 침해 가능성을 보여 줍니다.
응답자의 85% 이상이 자신의 데이터를 맡길 수 있는 회사가 더 많아지기를 원하고 83%는 자신의 데이터를 더 많이 제어하기를 원한다고 말했습니다. 그러나 더 의미심장한 것은 76%가 회사와 개인정보를 공유하는 것을 “필요악”이라고 부르는 반면, 55%는 회사가 개인정보 침해를 당했음을 안 후에도 그 회사 서비스를 계속 사용하거나 구매했습니다. 소비자는 가상 핸드셰이크를 후회할 수 있지만 역학을 변경할 힘이 없다고 느낄 수 있습니다.
“시민으로서, 소비자로서, 노동자로서 우리의 사생활에 인공 지능이 이렇게 대량 유입될 것이라고 가정할 때 어떤 질문을 해야 할 것인지 알아야 합니다.”라고 콜클로프(Colclough) 박사는 말합니다. “그러나 제 생각에 대다수의 일반 시민과 일반 근로자는 이러한 기술의 힘과 잠재력을 상상조차 할 수 없을 것입니다. 그래서 우리는 어떤 질문을 해야 할지 모릅니다. 우리의 사생활과 인권에 대한 위협이 무엇인지 모릅니다.”
신용 카드 또는 전자 상거래 계정이 노출되는 경우, 소비자는 마지못해 이를 무시할 수 있습니다. 결국 이 분야의 주요 회사는 상당한 고객 보호 의지를 갖고 있으며 경우에 따라 고객에게 배상할 금전적 자원을 보유하고 있습니다. 불행히도 데이터 유출은 사업 수행에 부담이 되고 있습니다.
그러나 예를 들면 AI를 사용하는 가정이 해킹되어 소비자와 가족이 피해를 입는 경우 소비자가 그냥 넘어갈까요? 아마 그렇지는 않을 것입니다. 그리고 집, 자동차, 직장 등 ‘개인 공간’을 양보해야 한다면 AI 채택에 심각한 장벽이 될 것입니다.
국제소비자기구 사무총장인 헬레나 루렌트는 AIX Exchange와의 인터뷰에서 AI의 신뢰 역학을 다음과 같이 설명합니다. “연결된 제품에 대한 소비자의 태도를 살펴볼 때, 대다수의 사람들은 이러한 제품의 욕구 충족 방식을 매우 즐깁니다. 그러나 이러한 제품을 구매하는 사람들도 오싹하는 기분을 다소 느낍니다. 그리고 그 신뢰 부족을 풀려고 할 때, 문제는 ‘내 데이터는 어디로 가는가?’라는 것과, 또한 ‘내가 제품이 된 것인가?’ ‘배후의 비즈니스 모델은 무엇인가?’에 대한 것입니다. “제품이 환경과 경험에 실제로 어떤 영향을 미치는지에 대해 소비자들 사이에는 정말 흥미로운 인식이 있습니다. 그래서 그런 종류의 제품이 더 많이, 더 잘 사용되기 위해서는 신뢰 부족을 극복해야 합니다. 그리고 우리는 신뢰 구축의 가능성을 발견했습니다. 아마도 과정의 맨 마지막까지 미결로 남기면 안 되고 처음부터 고려할 사항인 투명성, 보안, 취약한 소비자에 대한 관심, 환경 영향에 대한 관심의 정도를 이 설계의 맨 처음부터 구축한다면, 그러한 개방성 및 광범위한 기준에 대한 고려는 신뢰 형성에 도움이 될 수 있습니다.”
인터페이스 Interface
믿을만하고 직관적이며 작동하기 쉽게 구축소비자 기술이 광범위하게 채택되는 원인은 접근성, 가격, 인지된 이점 및 아마도 가장 중요한 사용 용이성을 비롯한 여러 요인과 관련이 있습니다. 컴퓨터 공학 학위가 없어도 확실히 새로운 기술을 사용할 수 있는 경우, 개인용 컴퓨터에서부터 스마트폰, 인터넷에 이르기까지 소비자들은 새로운 기술로 몰려듭니다.
회사의 제품에 대한 신뢰, 나아가 회사 자체에 대한 신뢰를 얻으려면 제품이 믿을만하고 직관적이며 작동이 간편해야 한다는 요즘 소비자들의 기대에 대해 부응하는지에 달려있습니다. 그건 내기에 거는 돈과 같습니다.
우리 삶에 들어온 AI 지원 제품 및 서비스의 진화는 소비자 채택에 새로운 문제를 제기합니다. AI가 진정 우리 삶의 어느 곳에나 존재하려면 현재 우리가 기술과 상호작용할 때의 방해요소, 즉 키보드, 마우스, 클릭, 검색, 전원 코드 및 우리를 기계나 장소에 묶어두는 기타 모든 것들로부터 진화해야 합니다. 이제 우수한 AI 경험의 핵심은 음성 및 대화형 AI, 다양한 소스에서 모든 개인 데이터와 습관을 정확하게 수집하고 분석하는 백엔드 시스템입니다.
가트너(Gartner)의 연구에 따르면 응답자의 70%는 안전한 거래를 위해 AI가 생체 신호를 분석하고 음성 및 얼굴 특징을 식별하는 것에 대해 편안함을 느낍니다. 그러나 응답자의 52%는 자신의 감정을 이해하기 위해 AI가 얼굴 표정을 분석하는 것을 원하지 않으며, 63%는 자신을 더 잘 파악하기 위해 AI가 상시 경청 방식을 택하는 것을 원하지 않습니다. 그러면 뇌-컴퓨터 인터페이스에 대해서도 유사한 유보 사항이 있다고 가정할 수 있습니다.
포지(Poggi)는 다음과 같이 말합니다. “사람들은 자신의 데이터가 적절하게 처리되어 악의적이거나 잘못된 의도에 사용되지 않도록 확인하고 싶을 것입니다. 그리고 사람들은 분명히 개인 데이터에 매우 민감합니다. 이것은 실제로 훨씬 더 개인적인 것이기 때문에 우리는 한 번도 경험해 보지 않은 길을 가고 있습니다. 우리가 요구하는 데이터는 이름, 주소, 주민등록번호뿐 아니라 이제 얼굴을 탐색하거나 목소리를 듣기 때문에 분명히 조금 더 긴밀한 것입니다.”
“향후 중요한 과제는 고품질 AI 엔진을 구축하기 위해 막대한 양의 개인 데이터를 수집해야 하고 이와 동시에 고도의 개인존중 방식으로 해당 데이터를 다뤄야 하는 현실에 직면하는 것입니다.”
그렇다면 개발자와 디자이너는 이 격차를 어떻게 메울까요?
이론적으로 볼 때, 대화형 AI는 현재 기술의 상호작용 방식보다 더 개인적인 1:1 경험을 제공해야 합니다. 잘못된 설계, 최소한의 투명성, 일반적으로 사용자(인구통계, 지역, 문화)를 파악하지 못하는 열악한 의사 소통은 고객의 욕구와 욕망을 예상하기 위해 충분한 시간을 쏟지 않았다는 것을 보여줍니다. 결과적으로 소비자는 AI를 외면하거나 AI 경험을 극대화하기 위해 표준 이하의 데이터를 제공할 것입니다.
“흥미로운 결과를 제공할 수 있는 매우 효과적인 AI 엔진을 갖기 위해서는 사람들과 그들의 경험에 대한 많은 데이터가 필요합니다.”라고 포기(Poggi)는 덧붙입니다. “예를 들면 생체 데이터와 음성 데이터가 필요하고, 얼굴 인식을 위한 시각 데이터가 필요합니다. 이러한 모든 센서는 해당 데이터로 인해 잘못된 결정을 내리지 않도록 반복 가능하고 강력하며 신뢰할 수 있는 방식으로 데이터를 제공해야 합니다. 이러한 입력 장치의 품질 진화는 인본주의적인 방식으로 성공적인 AI 전파를 지원하기 위한 핵심 요소가 될 것이라고 생각합니다.”
소비자 AI의 신뢰와 투명성 구축
수세기 동안 인간은 직장에서 생산성을 높이고 가정에서는 더 행복해지기 위해 도구와 기계를 만들어왔고 이러한 도구와 기계의 주인이었습니다. 오늘날 이러한 관계가 변화함에 따라 우리는 역사적으로 특수한 순간에 살고 있습니다. 기계는 이제 우리 삶에서 훨씬 더 역동적인 부분을 차지할 힘이 생겼습니다.
AI 제품 및 시스템은 사용자를 이해하고 학습하는 데 데이터, 즉 개인 데이터가 필요합니다. 사용자가 이 정보를 공유하는 것을 꺼리거나 너무 많은 것을 포기하지 않도록 자신을 보호하기 위해 “조작”을 한다면 삶에서 AI의 완전한 잠재력을 결코 깨닫지 못할 것입니다. 진정으로 우수한 AI 제품을 만들고 제공하려는 회사의 최선의 계획은 가장 인간적인 특성(신뢰 능력 여부)에 따라 성공할 수도 실패할 수도 있습니다.
여기서 핵심은 투명성일 것입니다. 최고 수준의 기업은 자사가 하는 일, 하지 않는 일, 하는 이유에 대해 매우 진솔한 대화를 나눌 필요가 있습니다. 소비자는 회사의 행동 이면에 있는 철학, 신뢰를 요구하는 알고리즘 개발의 기준 프레임, 일이 잘못되었을 때의 방침을 이해해야 합니다.
소비자는 수집되는 데이터, 수집 대상, 보관 위치, 사용 및 재사용 방법을 알아야 합니다. 기업은 발생할 실수를 인정하고 받아들여야 하며 이러한 실수를 어떻게 시정할 것인지 명확하게 설명해야 합니다.
AI 기반 제품과 서비스가 사람과 지구에 도움이 되려면 정부와 규제 기관은 전체 생태계 및 생태계가 사람에게 미치는 영향을 살펴보고 이러한 시스템이 하고자 하는 의도를 요구하고 기업이 데이터 프라이버시 및 보안을 최우선시 하며 책임을 지도록 해야 합니다.
“AI를 즉시 신뢰할 수 있다고 마케팅하거나 기술적인 관점에서 모든 경우에 신뢰성이 있다는 것을 증명할 수 없습니다.”라고 포스터(Foster)는 말합니다. “신뢰는 오랜 시간에 걸쳐 얻어야 할 것입니다.”
개발자와 정책 입안자, 특히 최종 사용자를 연결하는 AIX 설계는 AI 산업의 장기적 신뢰 달성을 위한 첫 번째 단계입니다.
A.I. 사업
전 세계의 기업들은 생산 간소화, 서비스 자동화, 더 나은 콘텐츠의 제공 및 인력 최적화를 위해 AI에 의지하고 있습니다. 이미 수천 개의 회사가 이 산업을 발전시키고 있습니다. 그러나 이 산업의 가치는 무엇일까요? 다음은 AI 비즈니스에 대한 5가지 주요 통계입니다.-
- 01. 대형 사업
- 맥킨지는 Al 기술이 19개 산업의 9개 사업 부문에서 연간 3조 5천억 ~ 5조 8천억 달러의 가치를 창출할 잠재력이 있다고 추정합니다.
-
- 03. 시작 단계의 AI
- Al 기업에 대한 벤처 펀딩은 2010년부터 2020년 1분기까지 획기적 기록인 610억 달러에 달했습니다. 예를 들면, 최근 소프트뱅크가 발표한 두 번째 Al 주력 비전 펀드는 1,080억 달러 규모입니다.
-
- 05. 대규모 소비자
- 스태티스티카(Statistica)의 추산에 따르면 2019년 인지 및 인공 지능(Al) 시스템의 부문별 전 세계적 지출은 소프트웨어 135억 달러, 서비스 127억 달러, 하드웨어 96억 달러였다고 합니다.