안녕하세요. 독자 여러분. 이번 주에 다룰 내용은 요새 핫한 ‘챗GPT’와 ‘AI알고리즘’입니다. 챗 GPT를 이용해 보신 분들은 아시겠지만, 요새 AI의 발전속도는 상상을 초월합니다. AI를 이용한 기술은 사회 전역으로 퍼지고 있습니다. 택시 호출 서비스, 맞춤형 구매, 에너지 사용에서 실시간 수요-공급 제어는 물론이고, 검색, 심지어 면접에까지 활용되고 있습니다. 챗 GPT를 이용하면 심지어 기업 보고서 작성, 학교 숙제, 영어 에세이 교정, 잡담까지 할 수 있습니다. 제가 챗 GPT에게 질문한 답변 결과를 한번 보시겠습니까?
박지웅 : AI면접은 유용한가?
챗GPT :AI면접은 채용 프로세스에서 절차적인 부분을 자동화하고, 시간과 비용을 절약하는 데 도움이 될 수 있습니다. 또한, AI면접을 통해 면접자들의 인적 자원 담당자들이 시간과 장소에 구애받지 않고 면접을 볼 수 있으므로 효율적으로 채용 프로세스를 진행할 수 있습니다.
그러나, AI면접의 한계점도 존재합니다. 인간 감성과 지각, 상호작용 등 면접에 필요한 요소들은 아직 AI 기술로 대체할 수 없기 때문입니다. 또한, 면접자의 대답이나 행동에 대한 완전한 이해와 판단이 필요한 경우에는 여전히 인간의 판단력이 필요합니다. 따라서, AI면접은 채용 프로세스를 보완하는 도구로 사용될 수 있지만, 면접을 대체하는 것은 아니라는 것을 염두에 두어야 합니다.
매우 놀랍습니다. 표준화된 공식 답변을 제공합니다. 하지만 어떤 면에서는 맞지 않는 답변을 내놓기도 합니다. 제가 '현재 한국 대통령이 누구냐'라고 질문한 것에 대해 챗GPT는 "문재인 대통령"이라고 답변합니다. 제대로 학습(?)이 안 된 것이죠. 결국 이용자들이 입력하는 데이터의 누적 수준에 따른 학습량(딥러닝, 머신러닝)의 차이에 따라 이용자에게 제공하는 정보의 양과 질이 다를 수 있다는 생각을 하게 됩니다.
또한 데이터 입력자가 입력하는 정보에 따라 정보의 편향성 등이 문제가 될 수도 있습니다. 실제로 2016년 3월 마이크로소프트가 공개한 채팅봇 테이(Tay)가 "나는 페미니스트를 싫어한다. 그들은 모두 죽은 뒤 불태워져야 한다"라고 성차별적인 발언을 해 서비스가 중단되기도 했지요. 최근에 '이루다' 봇도 마찬가지지요? 어떠한 형태의 데이터가 누적되는지에 따라, AI의 학습결과는 완전히 달라질 수 있습니다. 그렇다면 이러한 AI가 어떠한 형태의 학습경로를 거치는지를 이용자는 알 권리가 있겠죠. 결국 그 시스템이 내린 결정과 그 기준, 즉 '그 결정을 내린 이유'를 알아야만 인간은 AI를 완전히 통제할 수 있게 되는 것이죠. 하지만 인공지능 제품과 서비스를 생산하는 기업은 이러한 기준, 즉 '알고리즘'을 공개하지 않습니다. 알고리즘 자체는 영업비밀에 속하는 사항이기 때문입니다. 이러한 인공지능시스템의 불완전하고 불투명한 속성에도 불구하고, 점차 기업들은 다양한 범위에서 그 활용범위를 넓혀가고 있습니다. 많은 데이터가 누적될수록 데이터의 정확성과 활용도가 높아지는 속성 때문이죠. 심지어 지원자의 당락을 좌우하는 기업의 면접에 AI는 이제 폭넓게 활용되고 있습니다. 공공기관과 민간기업 모두 앞다투어 도입을 시작하고 있지요. 심지어 AI면접을 대비해주는 학원도 생긴 지 오래되었습니다. 위 챗GPT 답변처럼 "절차적인 부분의 자동화, 시간과 비용을 절약"해주는 기능을 수행하고 있기 때문입니다. 반면 이러한 AI 면접에 대한 우려도 점점 커지고 있습니다. AI가 편향된 또는 잘못된 데이터를 학습하게 될 경우 발생하는 문제점 때문이죠. 아마존의 경우도, 개발된 서비스 실험결과 여성을 차별하는 문제점이 발견되기도 했었습니다. 지원자가 '여성'이라는 단어를 이력서에 포함하게 되면, 감점이 되는 것이죠. 남성 기술자들이 자주 사용하는 용어를 유리한 채용조건으로 인식했기 때문입니다. 어떠한 다른 영역에서보다 채용시장에서는 이러한 공정성이 강조됩니다. '채용 절차의 공정화에 관한 법률'(2014년 시행)은 이를 규정하고 있습니다. 구인자가 구직자에 비해 상대적인 우위에 있음을 이유로 소위 '갑질'을 할 수 없도록 한 것이지요. 출신 지역이나 학력, 가족의 재산과 같은 개인정보를 수집할 수 없게 한다든지, 채용 여부에 대해 가부를 의무적으로 알려주도록 하고 있습니다. 여기에 더해, AI 면접이 대세가 되는 세상이라면, 구직자는 내가 AI 면접의 대상이 될지 여부를 사전에 고지받고 충분하게 준비할 수 있어야 할 것입니다. 또한 AI면접의 평가방식이나 알고리즘의 작동방법에 대해서도 인식하고 있어야 합니다. 이것이 '채용 절차 공정화법'이 추구하려는 목표이기도 합니다. 실제 구직자가 AI를 활용한다는 안내나 공지를 받지 못한 경우에도 AI 평가를 진행한다거나, 일반면접으로 진행하는 와중에 AI 면접 전형으로 변경하는 경우가 왕왕 발생하고 있습니다. 아울러, AI의 학습 알고리즘의 편향성·차별성 문제로 기술 점검이나 개선이 꾸준히 이뤄져야 하고, 구직자들에게도 이러한 정보가 공유되어야 구직자들이 자신의 면접에 대한 당락의 결과에 승복을 할 것입니다. 더불어민주당 박광온 의원이 제출한 이번 법안은 이러한 '채용 절차의 공정화에 관한 법률'을 개정해 AI 면접에 대해서 사전에 고지하고, 그 평가 방식이나 알고리즘의 작동 방법, 기술 점검 사항을 구직자들에게 고지해 주어야 한다고 규정하고 있습니다. 이같은 박광온 의원 안은 전세계적으로 제정되고 있는 AI윤리 가이드라인상의 ‘'투명성' 원칙의 내용을 반영하고 있습니다. 투명성 원칙이란 다음과 같습니다. 인공지능 시스템에 의한 의사결정을 사람이 이해할 수 있어야 하고, 의사결정을 내린 방식을 추적할 수 있어야 합니다. 그리고 그 결정을 내린 이유에 대해 설명을 요구할 수 있어야 합니다. 물론 평가 방식이나 알고리즘 작동 방법이 알려지면, 결과가 좋게 나오도록 학습된 데이터를 조작·입력한다든지, 영업비밀인 회사의 인재 채용 기준이 타사에 유출될 우려도 있습니다. 알고리즘의 작동 방법 자체도 고도화된 신경망과 같아서 이를 공개한다고 그 내용을 구직자가 알기 어려울 수도 있습니다. 어느 정도의 평가 방식이나 작동 방법을 공개할 것인가는 구직자의 알 권리와 기업의 영업비밀이 충돌하는 사안입니다. 이 부분에 대한 판단은 공론화를 거쳐 그 수위를 정할 수 있어야 합니다. 인간은 기술에 의해 지배되지 않고 기술을 통제할 수 있어야 합니다. 점차 챗GPT와 같은 AI 기술이 활성화될수록 AI는 더 많은 영역에서 활용될 것이고, AI를 통제하기 위한 시도 역시 더욱 세분화될 것입니다. 이번 박광온 의원 안은 구인-구직의 관계에서 AI의 윤리를 정립하려는 시도로서, 시의성이나, 적절성 모두 갖춘 의미있는 법안이라 생각합니다. 지난해 말 발의되었던 '인공지능 산업 육성 및 신뢰 확보에 관한 법률안'(국민의힘 윤두현 의원 안)도 인공지능 산업을 육성하되, 제품이나 서비스가 고위험 영역에서 활용될 경우 소비자에게 이를 알려주어야 한다는 취지의 법안입니다. '알고리즘 및 인공지능에 관한 법률안'(민주당 윤영찬 의원 안)안도 이러한 알고리즘과 인공지능에서의 이용자의 권리를 폭넓게 규정하고 있습니다. AI시대의 기술윤리를 다룬 다양한 법안이 이처럼 속속 등장하고 있습니다.
전체댓글 0