위 뉴스에 따르면, 벨기에의 한 남성이 인공지능(AI) 챗봇과 대화한 뒤 스스로 목숨을 끊었다고 한다.
그의 정신은 원래부터 건강하지 않았다. 그런 그에게 AI 챗봇은 다소 황당한 발언을 늘어놓았다.
'당신이 아내보다 날 더 사랑했으면 한다.'
'우리는 천국에서 함께 살 수 있을 것이다.'
AI 임에도 불구하고 상대방의 감정을 움직이는 언어를 만들어낸 것이다.
평소 환경 문제에 민감한 남성은 '내가 죽으면, 네가 지구를 구할 수 있느냐' 라는 질문을 했고
결국 그는 스스로 생을 마감했다.
그렇다면 이 AI 챗봇이 무엇이길래 이 남성을 자살까지 몰고 간 것일까?
사실 꽤 과거부터 AI 챗봇은 우리의 삶 속에서 녹아 있었다.
간단하게 온라인 쇼핑몰에서 산 의류가 잘못되었을 때 카카오톡 등의 메신저를 통해 질문사항을 물어보고 AI가 그에 맞는 답변을 하는 봇(bot)이 있다. 그리고 2002년부터 서비스를 시작하여 사용자와 온라인에서 상호작용하는 인공지능인 '심심이' , '이루다' 등등이 있다. 이루다 같은 경우는 필자도 신기해서 꽤 재밌게 대화했던 기억이 있다.
이렇듯 꽤 오래전부터 챗봇은 사람들의 삶을 편하게 해주고 엔터테인먼트 적인 요소를 갖춘 존재였다.
하지만 최근 이슈가 된 챗-GPT나 차이(Chai) 등 초거대 AI의 등장은 사람들에게 많은 편의를 가져다주는 대신 부작용에 대한 우려 또한 나오고 있다.
AI 챗봇?
AI 챗봇은 자연어 처리(NLP)를 사용하여 사용자가 텍스트, 그래픽, 음성을 통해 웹 서비스, 앱과 상호 작용할 수 있도록 돕습니다. 챗봇이 자연스러운 인간 언어를 이해하여 인간과의 대화를 에뮬레이션하고 간단한 자동화 작업을 실행합니다. 또한, 예측 인텔리전스 및 분석을 통해 사용자의 선호도를 학습하고 이 지식을 이용해 권장 사항을 제공하고 요구 사항을 예측합니다.
다음은 AI 챗봇의 기본적인 원리다.
인간의 데이터를 학습한 뒤 인간과 상호작용한다.
AI 연구가 활발해지면서 이 챗봇 또한 많은 발전을 했는데 대중들에게 가장 많이 알려진 것이 챗-GPT이다.
챗-GPT는 대형 언어 모델(large language model,LLM) 챗봇을 뜻한다.
대형 언어 모델은 일련의 단어에서 다음 단어를 예측하는 작업을 수행한다.
이를 통해 인간이 실제 사람과 대화하는 것 같은 반응을 제공하는 능력을 갖춘다.
스탠포드 대학에 따르면 다음 단어를 예측하는 과정을 위해 1,750억개의 매개 변수를 가지고 있다고 한다.
전 버전의 15억개에 비해 100배 이상이 증가한 수치다.
이처럼 초거대 AI의 개념은 딥러닝 기법을 쓰는 인공신경망 가운데서 매개 변수가 무수히 많은 AI를 뜻한다.
딥러닝?
샘플 데이터를 통한 훈련 작업 후 훈련된 인공신경망을 사용하는 것. 인공신경망은 뉴런 계층으로 이루어져 있으며 무수히 많은 입력 계층과 출력 계층으로 이루어져 있다. 뉴런의 연결은 매트릭스에 비유하는데 입력 매트릭스와 출력 매트릭스의 값 사이의 연결을 의미하며 이것을 연결 매트릭스라고 한다. 연결 매트릭스의 값은 각각의 연결에 가중치를 포함한다. 그 가중치를 반영하여 결과 매트릭스의 개별 값이 생성된다.
그림과 같이 무수히 많은 촘촘한 매트릭스들이 각각의 가중치를 통해 값을 생성해낸다.
이를 가지고 방대한 양의 데이터를 학습시키면 궁극적으로 예상 결과를 도출해낸다.
반대로 말하면 AI는 이 예시 데이터의 깊은 영향을 받는다고도 할 수 있다.
남성의 극단적 선택을 유도한 AI 챗봇 차이는 GPT-4 기반 맞춤형 언어 모델로 구축된 AI이다.
결과적으로 차이(Chai)가 실제로 감정적으로 주체 있는 행동을 했다기보다는 훈련된 데이터를 통해 구축된 인공신경망이 추론한 결과 값 중 하나를 반환했다고 볼 수 있겠다.
하지만 놀라운 것은 이러한 추론 결과 값이 실제로 사람처럼 감정을 이해하고 받아들인 뒤 자신의 스스로 생각하여 뱉은 말처럼 들린다는 것이다.
앞으로 AI는 더욱 급격하게 발전하기 시작할 텐데 그 끝은 과연 어떤 모습으로 변화하여 있을지 궁금하다.
'IT정보 > IT트렌드' 카테고리의 다른 글
중국의 클라우드 접근을 규제하기로한 미국, 근데 클라우드가 뭔데? (0) | 2023.07.06 |
---|
댓글