[비즈한국] 챗GPT로 촉발된 생성형 인공지능(AI) 바람이 거세다. 먼 미래에나 볼 줄 알았던 창의적인 AI가 우리 곁에 다가오자 전 세계가 들썩였다. 생성형 AI는 기술 발전의 새로운 가능성을 열었지만 동시에 혼란도 불러일으켰다. 갑자기 이뤄진 기술의 진보를 제도와 의식이 따라가지 못하면서 윤리, 제도, 환경 등 여러 분야에서 마찰음이 발생한다. 일각에서는 AI의 발전 속도를 의도적으로 늦춰야 한다는 경고까지 나온다. ‘AI 백브리핑’에선 고도화를 이룬 AI가 가져올 ‘멋진 신세계’ 이면의 문제를 들여다본다.
유럽이 AI 기술 규제를 위한 본격적인 입법 절차에 나섰다. 세계 최초의 AI 규제법이자 가장 강력한 규제법이라는 평을 받는다. 지난 14일(현지시각) 유럽연합(EU)의 입법부인 유럽의회는 본회의 투표에서 AI 규제법의 초안을 승인했다. 법안에는 생성형 AI 기업의 데이터 공개를 확대하고, 공공장소에서 생체 인식을 제한하는 등의 내용이 담겼다. 생성형 AI 개발사는 불법 콘텐츠 제작을 막는 보호 장치도 마련해야 한다. 이 때문에 외신에선 오픈AI 등이 유럽에서 서비스하기 어려울 수 있다는 전망도 나왔다.
#“AI 위협은 팬데믹·핵전쟁 수준” 전 세계 경고 잇따라
강한 규제안이 나온 배경에는 전 세계적으로 AI 부작용을 향한 우려가 커지는 데 있다. 안토니우 구테흐스 국제연합(UN) 사무총장은 12일(현지시각) 기자회견에서 “AI를 관리·감독하는 국제기구를 구상하고 있다”라고 밝혔다. 원자력의 평화적인 이용을 위해 설립된 국제원자력기구(IAEA)와 유사한 기구를 만든다는 목표다.
구테흐스 사무총장은 AI 전문가, IT 기업 CEO 등이 모인 비영리단체 ‘AI 안전센터(CAIS)’가 발표한 “AI로 인한 멸종 위기를 줄이는 일이 팬데믹·핵전쟁 같은 위험과 함께 우선순위에 올라야 한다”라는 성명에 주목했다. 이 성명에는 데미스 허사비스 구글 딥마인드 CEO, 샘 올트먼 오픈AI CEO 등이 동참했다.
미국에선 연방기관이 뭉쳐 AI 부작용을 막는 데 나섰다. 미 법무부 민권국, 연방거래위원회(FTC), 소비자금융보호국(CFPB), 평등고용기회위원회(EEOC) 4개 연방기관은 지난 4월 AI의 차별 및 편향성에 대응하는 공동성명을 발표했다. AI 등 자동화 시스템이 공정성이나 법규를 지키는지 적극적으로 조사하고 시정조치까지 한다는 것이 골자다.
4개 연방기관은 “AI를 포함한 자동화 시스템이 효율성 향상, 비용 절감 등을 이뤄주지만 편견을 지속하고 차별하는 등 유해한 결과를 만들 수 있다”라고 짚었다. 이들이 지적한 AI의 잠재적인 문제로는 △오류나 편견을 반영한 데이터로 차별적인 결과 도출 △의도적인 피드백으로 인한 편향 강화 △불투명한 모델로 인한 차별 발생 등이 있다.
해외만의 이야기가 아니다. AI 기술이 금융, 소비, 의료 등 주요 산업에 활용되면서 국내서도 대책 마련을 촉구하는 목소리가 높다. 이미 AI가 인권이나 안전에 영향을 미치고 있다는 점에서다. 대표적인 사례가 AI를 이용한 채용 절차다. 태도나 답변의 논리 등 눈에 보이는 역량이 중요한 대면 면접과 달리, AI 면접은 목소리 높낮이나 표정 등 무의식적인 반응을 분석해 “평가 기준도 모르고 결과도 믿을 수 없다”라는 논란이 이어졌다.
실제로 2020년 시민단체가 공공기관을 상대로 정보공개 거부 취소 소송을 하는 과정에서 해당 기관조차 AI 면접 정보를 보유하지 않은 사실이 드러났다. 알게 모르게 AI가 이용자를 평가하는 경우도 있다. 예를 들어 은행이 대출 심사나 신용평가에서 AI를 이용한 지는 오래됐지만, 심사 과정에서 AI가 쓰인다는 사실조차 모르는 이용자가 많다.
당사자도 모르게 차별 받을 수 있는 AI 기술의 특성상, 국가가 직접 피해 예방과 구제에 나서야 한다는 권고도 나왔다. 국가인권위원회(인권위)는 2022년 5월 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 마련했다. AI 개발과 활용 과정에서 발생하는 인권 침해와 차별을 방지하는 것이 목적이다.
가이드라인 제정 당시 인권위는 “AI 기술의 발전은 고용, 금융, 행정, 복지 등 사회 전반에 걸쳐 인간의 기본적인 삶과 인권에 영향을 미친다”라며 “그러나 그 영향을 받는 당사자들은 AI의 도입·운영·결정 과정에서 의견제시나 참여의 기회를 보장받지 못하고, AI에 의해 인권침해나 차별이 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황”이라고 지적했다.
인권위는 가이드라인을 통해 AI 개발 전후로 인권침해와 차별이 발생하지 않도록 국가 차원에서 관리·감독해야 한다고 짚었다. AI가 생명이나 안전 등 기본 인권에 영향을 미치는 경우 데이터와 알고리즘의 주요 요소를 사회에 공개해야 한다고 제시했다.
AI를 개발·활용하는 공공기관과 민간 기업을 대상으로 실시할 인권영향평가 제도에 대해서도 명시했다. 가이드라인에 따르면 국가는 AI의 개발과 활용 시 인권침해와 차별의 정도, 영향을 받는 당사자의 수, 데이터의 양 등을 고려해 공공기관 및 기업에 인권영향평가를 실시해야 한다. 인권영향평가는 AI 개발 및 출시 전에 실시하고, 기능이나 범위가 바뀌면 평가도 갱신해야 한다. 인권위는 올해 초 이 같은 내용을 구체화한 ‘인공지능 인권영향평가 도입 방안 연구’ 보고서를 발표했다.
#국내 법제화 상황은?
인권위는 AI를 서비스하는 기업 등의 책임을 강조했다. AI를 개발·활용하는 공공기관과 민간 기업은 언제든지 피해자의 구제가 가능하도록 책임자에 대한 정보를 공개하고, 이의를 제기할 수 있는 기관과 방법에 대한 정보도 대중에 공개해야 한다는 것. 즉 고성능 AI 서비스를 하려면 부작용을 해결할 시스템도 갖춰야 한다는 의미다.
인권위가 가이드라인을 내놓은 후 2022년 9월 과학기술정보통신부, 개인정보보호위원회, 방송통신위원회, 공정거래위원회, 금융위원회는 “관련 정책과 사업 및 제도 개선에 반영하겠다”라며 권고를 수용했다. 국무총리도 “AI 관련 정책과 사업을 조정하는 역할을 수행하겠다”라고 답했다.
하지만 답변은 공염불에 그쳤다. 지난 2월 ‘인공지능 산업육성과 신뢰 기반 조성 등에 관한 법률(인공지능법)’이 과학기술정보통신방송통신위원회(과방위) 법안심사소위를 통과했다. 이 법안을 두고 인권시민단체의 반발이 거세다. 법안이 ‘우선 허용-사후 규제’를 명시하면서 안전이나 인권은 보호하지 못한다는 점에서다. 법안에선 인권위가 가이드라인에서 제시한 수준의 규제나 인권영향평가 등은 찾아보기 어렵다.
시민단체들은 국회와 과학기술정보통신부(과기부) 등에 인공지능법의 전면 재검토를 요구했다. 단체들은 5월 과기부에 보내는 의견서에 “법안이 고위험 AI에 대한 분류 기준이 모호하고 자의적이다. 의무 위반 시 제재 조치 등 강제성을 확보할 근거나 독립된 기구에 의한 관리·감독 규정도 없다”라며 “AI가 미칠 위험성을 등한시하고 규제를 무분별하게 완화하는 내용으로 이뤄져 있어 우려를 표한다”라고 밝혔다. 과기부는 이에 답변하지 않은 상태다.
AI 인권영향평가 연구에 참여한 오병일 진보네트워크센터 대표는 “법안에는 실효성 있는 처벌 조항이나 의무화 조항이 없다. 인권과 안전을 고려해 규제한다고 보기 어려운 수준”이라며 “기본법은 한 번 만들면 바꾸기 어렵기 때문에 제대로 만드는 것이 중요한데, 세계 최초의 인공지능법이라는 성과 내기에 몰두하는 것으로 보인다”고 꼬집었다.
오 대표는 “AI 산업 진흥을 위한 법안 자체가 아이러니하다. 산업계엔 법안 자체가 규제인 셈인데, 내용은 규제를 완화하는 것”이라며 “언젠가는 산업법이 생겨야겠지만 우리나라 상황에 맞게, 충분한 사회적 논의를 거친 후에 만들어야 한다. 유럽처럼 실제로 위험성을 통제할 수 있는 내용을 담아야 한다”라고 지적했다.
심지영 기자
jyshim@bizhankook.com[핫클릭]
·
[AI 백브리핑③] AI 발전은 지구 환경에 득일까 실일까
·
[AI 백브리핑②] AI가 만든 콘텐츠의 '주인'은 누구일까
·
[AI 백브리핑①] 생성형 AI의 윤리 문제, 기업들의 대응 방법은?
·
미국서 '거짓판례' 내놓은 챗GPT…AI 법률 서비스 등장, 한국도 남 일 아니다
·
[현장] 국내 게임산업, AI 활용 어디까지 왔나