2021. 5. 13. 20:37ㆍ미래영역/경제 시사 분석 스터디
ESG(Environment, Social, Governance)
ESG는 Economic, Social, Governance의 약자로 옛날에 유행했던 CSR(Corporate Social Responsibility)의 연장선상이다. 이미 오래 전부터 있던 단어이긴 하지만, 2020년을 기점으로 해서 부상했고 2021년 클라우스 슈밥의 'The Great Reset'에까지 등장하는 등 상당히 유행을 타고 있는 중이다.
기업이 경제, 사회, 지배구조에 있어서 지속가능하고, 투명하게 운영해야 한다는 내용이 점차 퍼지면서, 기업들은 투자자들을 유치하기 위해서라도 어쩔 수 없이 윤리에 대해 신경쓰는 입장이 되었다. 그리고 그 윤리의 날카로운 끝에 서 있는 건 바로 인공지능이다.
Weapons of Math Destruction
Cathy O'neil의 책 Weapons of Math Destruction은 인공지능 알고리즘으로 인해 피해를 본 사람들에 대해 다루는 책이다. 이 책에는 여러 피해자들이 등장하는데, 이들은 모두 인공지능이 현대인의 편견을 여과없이 학습하며 사람을 판단했기 때문에 피해를 입은 자들이다. 대량살상 수학무기에서 제시하는 문제들은 꽤나 심각한데, 예를 들면 인공지능 판사가 재판할 때 할럼가의 죄수는 경범죄를 저질러도 부유한 집안에 사는 백인들보다 그 처벌 수위가 매우 강하다. 이전에 있었던 인종차별적이고, 자산에 따른 범죄율 등을 모두 반영한 결과이다. 이런 상황에서 (백인들에 비해) 사회적 약자인 흑인들은 차별적인 대우를 받을 수 밖에 없는 상황에 놓여 있다. 또 다른 예가 있다. 한 고등학교 교사는 인공지능 알고리즘을 통한 평가에서 최하점을 맞고 학교에서 퇴출당했다. 이는 중학교 당시 실제 학생들의 성적은 무시한 채, 학교의 위엄을 높이고자 했던 한 중학교 교사가 점수를 모두 만점으로 조작했었기 때문에 나타난 결과였다. 하지만 인공지능은 당연히 이러한 속사정을 제대로 판단하지 못했고, 때문에 한 무고한 교사가 퇴출당한 것이다. 책에서는 이러한 것과 같은 다양한 예시들을 소개해주며 2016년 당시 올해의 책으로 선정되었다.
이는 비단 외국에서만의 문제가 아니다. 얼마 전에도 뉴스에 보고된 적 있는데, '배달 요기요'와 같은 경우에 알고리즘을 이용해 소위 '라이더'들을 평가한다. 문제는 이들의 규제가 심하게 빡빡해서, 잠깐 화장실을 간다고 보고했을 때 이들의 등급이 내려가고, 등급이 1등급 라이더에서 2등급 라이더로 넘어감에 따라 일감이 심각하게 줄어들었다. 이는 인공지능 알고리즘이 '너무 잘' 작동한 나머지 이들의 생활을 고려하지 않을 정도로 업무환경이 힘들어졌다는 점을 시사한다.
Corporations sensitive at Ethics
때문에 똑똑한 기업들은 이미 이러한 문제점을 알고 있는데, 인공지능을 지극히 잘 활용하고 있는 기업들이 걱정하는 것은 따로 있었다. 인공지능의 이러한 문제점을 바탕으로 정부에서 기업의 활동에 제약을 거는 것이다. 예를 들어 구글과 같은 기업에서는 이미 내규를 만들어 인공지능 활용 방안을 자체적으로 규제한다.
"Google plans to double the size of its team studying artificial-intelligence ethics in the coming years, as the company looks to strengthen a group that has had its credibility challenged by research controversies and personnel defections."
위 기사에 따르면 이번에 Google에서는 또다시 Artificial Intelligence Ethics Team의 사이즈를 2배로 늘리고 이 팀에 예산편성을 확대하겠다고 밝혔다. (기사에서 설명하는 건 이번에 전 AI team leader가 내부감사에 따른 정보유출로 인해 바뀐 AI 팀에 대한 이야기이다.) 여기서 주목할 점은 (그런 구설수가 도는 상황에서도) 구글이 신뢰를 회복하기 위해서 계속해서 인공지능 윤리 팀의 크기를 확장하고 있다는 것이다.
How to Build an AI Ethics Committee
노스이스턴대학 윤리 기관 총책임자 Ronald Sandler의 말을 보자.
“And as of now, we don’t have the capacity to pre-emptively address issues before they arise.”
사실은 당연한 말이다. 요즘 인공지능은 Petabyte, Exabyte등의 단위로 학습을 진행하는데 사람이 일일이 확인해 가면서 어떤 데이터를 바탕으로 학습하는지 모든 것을 다 고려할 수 없기 때문이다. 뿐만 아니라 학습방법에 따라 비지도학습의 경우 특히 학습된 데이터의 Parameter가 무엇을 의미하는지도 정확하게 알 수 없을 때도 많다. 가령, 개인의 신용평가를 진행한다고 가정하고 이를 위해 인공지능을 바탕으로 고객을 분석한다고 가정하자. 수많은 Parameter가 생성될 것인데, x1, x2, x3, ... x2000 의 변수 중 무엇이 '거주 구역'에 대한 변수인지 알 수 없다. 때문에 성능에 의해 무차별적으로 가져온 데이터는 거주구역에 따라 사람을 차별할 수도 있게 되는 것이다. 그러나 이미 벌어진 알고리즘의 피해자를 하나하나 찾기가 쉽지가 않다.
Accenture 유한주식회사와 Northeastern 대학에서는 답이 없는 것 처럼 보이는 이러한 윤리적 문제를 해결하기 위해서 'Bioethics'의 위원회가 사용하는 방식을 끌어올 것을 제안한다. 이미 위원회를 꾸려 윤리에 대해 논의하는 것이 법으로 지정되어 있는, 생물윤리 분야에서 AI의 윤리적 문제에 대한 해결방침을 가져오자는 것이다. 인공지능과 마찬가지로 마땅한 해결책을 보이지 않는 분야를, 전문가 모임(Think Tank)를 통해 해결하자는 방식이다.
40년 이상 진행된 Bioethics Commitee는 이미 여러 방침이 존재하지만 한 개의 가이드라인만 뽑자면, 위원회를 구성하는 방식에 대하여 다양한 분야의 전문가를 모집하는 것이다. 예를 들면 AI와 같은 경우에는, Technical Engineer, 법학자, 윤리학자, 그리고 소비자의 의견을 대표하기 위한 대표자 등으로 위원회를 구성할 수 있다. 이러한 구성이 중요한데, 이를 통해 각자의 전문지식에 대해 이해함으로써 정확한 이해를 바탕으로 결론을 지을 수 있기 때문이다. 이외에도, 위원회가 얼마만큼의 권력(power)을 가져야 하는가, 또 어떻게 기능해야 하는가(절차) 등에 대한 논의도 다루고 있다.
Case of Adobe
실제로 이러한 방침을 사용해 위원회를 꾸린 기업이 있다. 2년 전 Adobe는 다양한 인종, 성별, 전문분야로 구성된 위원회를 구성했다. 이들의 위원회 사용 방식은 조금 달랐는데, 특정 이슈가 터졌을 때 모여 이들을 해결하려는 것 대신에 'Review Board'를 이용했다.
Review Board는 코딩에 대한 의견을 나누고 이를 검토할 수 있도록 하는, MIT개발 소프트웨어이다. 이를 통해 개발자들이 미리 만들어놓은 코드를 실제로 실행하기 전에 구성원들이 의견을 공유할 수 있다. 만약 충분히 사전 검증이 끝났다고 생각된다면 그 때 검토자가 '커밋'을 함으로써 실제 데이터를 분석할 수 있다. 또한 커밋 이후에도 조직 구성원들이 계속해서 알고리즘이 잘 작동하고 있는지, 문제가 있다면 어디서 생겼는지 등에 대한 의견을 개진할 수 있다.
다양한 전공, 직종, 성별, 인종의 회사 구성원들이 자신의 전문분야를 근거로 여러 스탠다드를 만들어 낼 수 있고, 새로운 기술들이 어떤 문제를 야기할지에 대해 의논할 수 있는 소통의 장을 만든 것이다. 실례로, Adobe가 얼굴인식 필터를 만들었을 때, 아프리카계 미국인에 대해서만 얼굴을 잘 인식하지 못하는 경우가 발생함을 아프리카 미국인인 조직 구성원들의 리뷰를 통해 알 수 있었다.
Adobe가 자랑하는 AI Ethics Commitee 웹페이지를 방문했을 때, 이들은 더 다양한 목소리를 듣기 위해서 Partnership of Artificial Intelligence(PAI)에 가입해 인공지능 윤리에서 발생할 수 있는 다양한 문제를 해결할 수 잇었다는 광고 문구 또한 볼 수 있었다. 하지만 여기서 살짝 문제를 발견했는데, PAI 구성원을 대략 나열하자면 Amazon, Adobe, CIFAR(Canada), Apple, BBC 등 영어 언어를 구사하는 국가의 회사나 기관들이었다.
이들 회사에서 서로 소통하며 'Review Board'를 통해 의견을 공유하고 위원회를 구성한다고 하더라도 비영어권 국가에서 발생할 수 있는 편향을 고치는 데에는 한계가 있음이 분명해 보였다. 물론 사내정보를 기업 또는 파트너 외의 기업에 공유하는 건 어불성설이므로, Review Board를 통해 편향을 극복하는 방법 외에도 다양한 방식으로 알고리즘 윤리를 바로잡을 노력이 필요해 보이는 상황이다.
'미래영역 > 경제 시사 분석 스터디' 카테고리의 다른 글
[I.o.T.] 의 지평을 넓히는 요즘 기업들 (0) | 2021.05.24 |
---|---|
한미정상회담 결과와 백신 (0) | 2021.05.22 |
도지코인 (0) | 2021.05.03 |
빅데이터 분산 처리 시스템 하둡(Hadoop) 및 HDFS (0) | 2021.05.03 |
플랫폼형 기업 (0) | 2021.04.12 |