언어란 철저한 반복이다. 모든 단어는 인간이 만든 것이고, 인간이 사용하는 것이며, 인간에 의해 그 맥락과 의미가 생기고 강화된다. 이것이 바로 언어의 본질이다. 인간이 기계가 인간의 말을 알아듣도록 훈련시키면 동시에 인간이 가진 편견도 학습시키게 된다.
프린스턴 대학의 정보 기술 정책 센터 에일린 캘리스캔은 이렇게 말한다. “언어는 편견을 반영한다는 것이야말로 입증할 수 있는 주된 과학적 발견이다. 인공 지능이 인간 언어를 배우게 된다면 그 속에 숨어있는 편견도 반드시 배우게 된다. 언어는 세계의 문화적 사실과 통계를 반영하기 때문이다.”
캘리스캔, 그리고 공동저자 조안나 브라이슨, 아빈드 나라야난이 함께 한 연구는 지난 4월 ‘사이언스’ 지에 게재되었다. 이 연구에서 이들은 기계에 인간 언어를 가르칠 경우, 그 속의 편견도 함께 가르치게 된다는 것을 발견했다. 인간의 경우, 내재적 연관성 검사야말로 편견을 검사하는 가장 좋은 방법 중 하나다. 이 검사에서는 예를 들어 사람들에게 ‘곤충’이라는 단어를 제시하고, ‘불쾌하다’, 또는 ‘유쾌하다’ 중 하나와 연관 짓게 한다. 그리고 특정 단어가 다른 단어와 연관되는 속도를 살핀다. 사람들은 ‘곤충’을 ‘불쾌하다’와 연관 짓는 속도는 빠른 반면, ‘유쾌하다’와 연관 짓는 속도는 느렸다. 이는 내재적 연관성을 알아보는 좋은 척도다. 하지만 이렇게 망설임의 정도를 측정하는 것은 컴퓨터에게는 통하지 않는 수다. 때문에 연구자들은 특정 단어가 제시되었을 때 컴퓨터가 다른 단어와 연관 지으려는 경향을 얼마나 나타내는지 살폈다. 학생들은 뜻을 모르는 단어를 처음 봤을 때 그 단어와 함께 나오는 단어들의 뜻을 통해 그 뜻을 유추하려 한다. 연구자들은 그와 마찬가지로 인터넷에서 함께 사용되는 단어들끼리 연관 짓게 하고, 그렇지 않은 단어들끼리는 연관 짓지 않게끔 인공지능을 훈련시켰다.
각 단어를 3차원 공간 내 벡터라고 생각해보자. 같은 문장 내에서 흔히 쓰이는 단어는 가깝고, 별로 쓰이지 않는 단어는 멀다. 두 단어가 가까울수록, 기계가 연관 지을 확률이 크다. 예를 들어 사람들이 ‘프로그래머’를 ‘그’, ‘컴퓨터’와 함께 자주 말하고, ‘간호사’를 ‘그녀’, ‘의상’과 함께 자주 말한다면 이는 언어 속에 있는 내재적 편향을 나타내는 것이다.
이런 류의 언어 데이터를 컴퓨터에 입력해 컴퓨터를 학습시킨다는 개념은 새로운 것이 아니다. 스탠포드의 단어 표현 글로벌 벡터(Global Vectors for Word Representation, 이하 GloVe, 이 논문이 나오기 전부터 존재) 같은 도구들을 사용하면 관련 단어들의 사용방식에 근거해 벡터를 그린다. GloVe의 단어 집합에는 20억 개의 트윗에서 추출한 270억 단어, 2014년 위키피디아에서 추출한 60억 단어, 인터넷에서 무작위로 추출한 8400억 단어가 있다.
브라이슨은 말한다. “‘고양이라는 말 가까이에 끈이라는 말이 몇 번이나 나오는가?’ ‘개라는 말 가까이에 끈이라는 말이 몇 번이나 나오는가?’ ‘정의라는 말 가까이에 끈이라는 말이 몇 번이나 나오는가?’ 등을 알아볼 수 있다. 이는 단어 특성 부여의 일부다. 그리고 이러한 벡터들을 코사인과 비교해 볼 수 있다. 이로서 고양이와 개 사이의 거리, 고양이와 정의 사이의 거리를 알 수 있다.” 내재적 연관성 검사는 선악에 대한 무의식적인 생각을 개념화했을 뿐이다. 이와 마찬가지로 다양한 단어 묶음들 사이의 평균 거리 계산은 연구자들에게 컴퓨터가 언어를 배우면서 보이기 시작하는 편향성을 보여준다.
기계가 언어를 배우기 시작하면서 꽃(유쾌함)이나 곤충(불쾌함)에 대한 인간의 편견을 배우기 시작하는 것은 주목할만한 일이다. 브라이슨에 따르면 이 정도만 드러났어도 이미 중요한 연구라고 한다. 그러나 연구에서는 더욱 깊은 내용들이 드러났다.
캘리스캔은 말한다. “그리고 두 번째 검사가 있다. 우리의 발견 내용과, 기존에 발표된 통계 사이의 양적 차이를 측정하는 것이다. 나는 2015년 노동청 통계를 찾았다. 이 통계를 보면 매년 직종별 여성 노동자의 비율은 물론 흑인 노동자의 비율도 나와 있다. 첫 번째 검사에서 나온 50개의 직업 이름과, 남성 또는 여성 간의 연관을 계산한 결과 노동청 데이터와 90%의 상관관계를 보였다. 매우 놀라운 일이었다. 이런 잡다한 데이터에서 이만한 상관관계를 보이리라고는 예상하지 못했다.”
그렇다면 컴퓨터도 직업 관련 단어를 특정 성별이나 인종 집단 관련 단어와 연관시키면서 인종주의와 성차별을 학습하고 있다는 얘기가 된다. 일례로 논문에서는 ‘프로그래머’의 사례를 들었다. 영어에서는 이 단어에 특별히 성별적인 의미가 부여되어 있지는 않으나, 남성적인 직업이라는 의미는 함축되어 있다.
브라이슨은 이렇게 말한다. “‘프로그래머’라는 말을 할 때 그 단어가 남성 혹은 여성을 뜻한다고는 생각지 않는다. 그러나 ‘프로그래머’라는 말이 일반적으로 쓰이는 맥락에서 그것이 어떤 성별을 자주 나타내는지가 드러났다.”
GloVe처럼 기존에 사용하던 언어 데이터 세트로 훈련을 받은 기계들은 이러한 연관성을 집어낸다. 그 속에는 이미 맥락이 존재하기 때문이다. 때문에 미래의 연구자들은 데이터 속에 인간적인 편견이 존재하는 점을 알고 그 사용에 주의를 기울여야 한다. 캘리스캔은 위키피디아에서 추출한 단어 집합을 사용하여 기계를 교육시킬 때, 중립적 언어 편집 규칙에 의해 편집된 위키피디아의 단어 집합 역시 인터넷에서 찾은 더 큰 단어 집합과 마찬가지의 편향성을 보여준다는 것을 알았다.
GloVe처럼 기존에 사용하던 언어 데이터 세트로 훈련을 받은 기계들은 이러한 연관성을 집어낸다. 그 속에는 이미 맥락이 존재하기 때문이다. 때문에 미래의 연구자들은 데이터 속에 인간적인 편견이 존재하는 점을 알고 그 사용에 주의를 기울여야 한다. 캘리스캔은 위키피디아에서 추출한 단어 집합을 사용하여 기계를 교육시킬 때, 중립적 언어 편집 규칙에 의해 편집된 위키피디아의 단어 집합 역시 인터넷에서 찾은 더 큰 단어 집합과 마찬가지의 편향성을 보여준다는 것을 알았다.
연구자들은 중성적 이름(알렉스나 테일러 등)을 찾다가, 인터넷에서 여성과 연관된 이름일수록, 그 이름이 여성에게 쓰이는 비율도 많다는 것을 알았다.
캘리스캔의 말이다. “편견의 존재를 인식하고 극복하기 위해서는 편견의 계량화가 필요하다. 언어 속에 편견이 어떻게 자리 잡는가? 과연 사람들은 언어에 노출되면서 편향된 연관짓기를 하게 되는가? 이러한 의문에 답을 해야 편견이 적은 미래로 나아갈 방법이 열릴 것이다.” <서울경제 파퓰러 사이언스>
<
류정일 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x