인간과 대화하는 인공지능(AI)
이로부터 7년 후, 우리는 또 다른 모델의 AI(Artificial Intelligence)와 마주하고 있다. 오픈에이아이(OpenAI)사가 GPT 3.5를 기반으로 개발한 대화형 인공지능 챗GPT(ChatGPT)가 등장했다. 챗GPT는 거대 언어모델로서 이용자의 질문에 답할 뿐 아니라 그림을 인식해서 대상의 특징을 파악하여 답을 내놓는다. 챗GPT는 공개(2022년 11월 30일)된 지 얼마 안 되어 엄청난 반응을 일으켰다. 통계청에 의하면 챗GPT 사용자는 5일 만에 100만 명, 40일 만에 1000만 명에 달했다고 한다. 그리고 한 달 동안 서비스를 이용한 순수한 이용자 수(MAU)가 1억 명을 달성하는데 2개월 밖에 걸리지 않았다. 이러한 대형 언어모델 개발 경주에 구글의 바드(Bard)와 메타의 라마(LlaMA)도 참여했다. 바야흐로 4차 산업혁명 시대를 맞이했다고 뉴스, 기사, 방송에서 외쳐도 도대체 그것의 실체가 무엇인지 실감하지 못하였으나 어느새 우리는 이미 인공지능의 기술을 일상에서 경험하고 있다. 매일 사용하는 스마트 폰, 가전제품, 컴퓨터, 식당 입구마다 세워져 있는 주문 키오스크, 테이블 오더, 주문한 음식을 서빙하는 로봇에서 거리를 활보하고 다니는 전동보드, 전기자전거와 같은 개인형 모빌리티, 자율주행자동차까지 곳곳에서 우리는 인공지능과 함께하고 있다. 의료분야에서도 원격진료, 디지털 헬스케어 등에 이러한 기술이 확산하고 있다.인공지능 활용에 대한 정책 방향
올해 1월 26일 한덕수 국무총리 주재의 제2차 국가데이터정책위원회가 개최되었다. 이 회의에서는 지난해 9월 28일 발표된 대한민국 디지털 전략의 후속 계획인 제1차 데이터산업 진흥 기본계획과 인공지능 일상화 및 산업 고도화 계획이 중점적으로 논의되었다. 제1차 데이터산업 진흥 기본계획(2023~2025)은 '데이터산업 진흥 및 이용촉진에 관한 기본법' 제4조에 따라 정부가 3년마다 데이터 생산, 거래, 활용을 촉진하고 데이터 산업기반을 조성하기 위해 수립하는 법정계획으로 2027년까지 다음과 같은 중점추진 과제가 발표되었다(<표 1>).휴먼 vs. 휴머노이드?
국내 지역사회에서 돌봄 분야 인공지능 활용 현황을 보면, 경상남도가 코로나19 상황에서 사회적 고립감 증대 및 신체적 건강 악화, 치매·우울증 등 정서적 건강 악화의 예방 관리를 위해 2021년 AI 스피커를 도입하였다. 2022년 9월 기준, 경상남도 전체 18개 시‧군 7156명이 AI 스피커를 이용하고 있다. 경상남도는 2023년까지 돌봄이 필요한 가구에 AI 스피커를 누적 1만대 확대 보급할 예정이다(서울시복지재단, 2022). AI 스피커의 활용 사례를 보면 돌봄 SOS 호출 긴급 구제 사례가 2019~2021년 사이 약 102건, 2022년 8월 기준 57건 정도로 지난 3년간 약 159건에 달한다. 돌봄 인력이 부족한 상황에서 AI 돌봄이 긴급구조 역할을 상당부분 수행했다고 평가되었다(서울시복지재단, 2022). 광주광역시 서구에서도 AI 스피커가 독거노인, 장애인, 기저질환자를 대상으로 스마트안심케어서비스로 활용되고 있다. 서울시 서초구는 AI스마트맞춤돌봄사업으로 스크린터치형 AI 스피커와 인형형 돌봄 로봇을 도입해 독거노인을 지원하고 있다. 이와 같은 지자체의 실제 돌봄 로봇 활용 사례에서 도출된 시사점은 인공지능이 돌봄 서비스의 사각지대를 해소하고 코로나 팬데믹 가운데 인간 돌봄의 감염위험으로 인한 돌봄 부재를 보완하는 기능을 하였으나, 인간 돌봄을 줄이고 기계돌봄(AI 등)이 그 자리를 대체했다고 보기는 어렵다는 것이었다(서울시복지재단, 2022). 다른 한편 돌봄 분야의 인공지능 활용에 대한 윤리적 쟁점도 떠오르고 있다. 불과 얼마 전까지 코로나 팬데믹을 거치면서 경험한 비대면의 상황이 인간에게 정서적, 심리적으로 부정적인 영향을 끼친 것처럼, 로봇 기술로 인해 사람 간 대면 접촉이 감소함으로 인해 돌봄 수요자의 사회적 고립이 우려된다. 또한 로봇이 돌봄 대상자의 다양성을 수용하지 못하고 인간을 사물화하여 존엄성 상실의 위기를 맞이할 수도 있다. 개인정보보호에 대한 위험성, 의사결정권 침해, 로봇의 일방적인 결정 오류에 따른 책임 소재 문제도 뒤따를 가능성도 있다.휴머니즘이 살아있는 인공지능 시대
'아직 로봇은 시기상조이다', '인공지능은 인간을 뛰어넘을 수 없다'라는 사고는 이미 유효하지 않은 듯하다. 그만큼 우리 인간은 일상을 인공지능과 공유하고 있다. 아니, 인간의 손길 없이도 인공지능으로만 가능한 일들이 너무 많아졌다. 그러나 변하지 않는 사실은 인공지능이 인간의 기능을 하고 대체하는 위치에 있다고 해도 인간의 우위에 있지 않다는 것이다. 인공지능은 인간에게 도움이 되는 존재일 뿐이다. 하지만 인공지능의 잘못된 판단과 결정으로 인간을 위험에 빠뜨리거나, 심지어 인간의 안전과 생명을 위협하기는 일들이 발생하고 있다. 챗GPT를 만든 OpenAI CEO인 새뮤얼 H. 올트먼도 최근 서울에서 개최된 대담 행사에서 "AI 규제에 대해 전 세계적인 협력이 필요하다"며 인공지능이 만들어낸 거짓 정보가 정치·경제 영역에 심각한 혼란을 일으킬 수 있고, 사이버범죄에 활용될 가능성도 다분하다고 지적했다. 2001년 인공지능을 소재로 한 스티븐 스필버그 감독의 영화 <에이아이(A.I.)>는 당시 상당한 충격이었다. 아니, 매우 현실감 없는 이야기 같았다. 주인공 데이비드는 4.6피트 키에 60파운드의 체중, 갈색머리를 한 11살 남자아이이다. 데이비드는 자신의 아버지가 되는 하비 박사가 탄생시킨 인공지능 로봇으로 불치병에 걸려 냉동된 상태의 아들이 있는 가정에 입양되어 살게 되는데, 실제로 엄마의 사랑을 받기를 원한다. 그러나 이 가정의 원래 아들이 되살아나 돌아오자 데이비드는 숲속에 버려진다. 데이비드는 엄마의 사랑을 되찾기 위해 여행을 떠나면서 로봇을 사람으로 바꾼다는 푸른 요정을 찾으려 한다. 2천 년 후 얼어붙은 뉴욕으로 돌아간 데이비드는 주어진 단 하루, 엄마의 머리카락으로 엄마를 재생하여 오랫동안 기다리던 엄마의 사랑을 찾고 엄마 옆에서 잠든다. 20여 년 전, 사람과 같은 인공지능 로봇을 주인공으로 등장시켰다는 것 외에도 그 로봇이 사람이 되고 싶어하는 갈망을 적나라하게 그려낸 이 영화의 작품성은 놀랍다. 인공지능과 공존의 시대를 살아가는 지금, 인간(Human)만이 가지고 있는 속성의 의미를 다시 한 번 생각하게 하는 작품이다. 사람만이 가진 그것을 잃지 않고 앞으로 나아가는 세상이 되길 바란다.
전체댓글 0