기술에 대한 우리의 대응은 냉정 혹은 열정이다.
하지만 최근의 Chat GPT 열풍은 마치 미래로만 여겨지던 AI 세상이 도래한 것으로 착각이 들만큼 열풍이다. 개별 기업들이 너도나도 도입하거나 또는 도입하려고 하고 있다.
그런데 우리는 기술에 대해서 이해하기 보다는 단순 열풍에 편승하려는 경향이 있다. 그 기술이 어떤 것인지, 기술 자체에 대해서 이해하는 시간보다는 무언가에 쫒기듯 생성형 AI 도입에 열을 올린다.
AI에게 우리가 기대하는 것은 인간을 능가하는 것이 아닌 인간과 공존하며 협력하는 구조이다. 하지만 간혹 기술을 보며 인간을 대체하려는 생각으로 섵불리 시도를 하곤 한다. 최근의 GPT 조차 그런 시도를 하고 있다. 그만큼 AI에 대한 올해의 사람들의 인식전환은 어쩌면 성공했다고 할 수 있다.
반면 AI가 인간을 얼마나 속일 수 있을지 그 문제점이 속속들이 나타나고 있다. Chat GPT에게 물어보는 것을 진짜 진실로 인식하는 일들이 가장 많은 문제이다. 유료서비스로 다양한 질의를 했지만 의도적 질문에 마치 사실인것처럼 말하는 GPT의 대답을 보면서 단순히 AI의 실수라기 보다는 이것을 진실로 믿는 사람들이 존재할 경우 나타날 문제점은 인간의 삶 자체를 흔들 수 있다는 점이다.
그 사례로 오늘 발생한 펜타곤 폭발의 이미지는 기술에 대한 인간의 무지가 어떤 결과를 가져오게 될지에 대해서 질문을 하고 있다. 기술에 대한 맹목적인 신뢰는 인간에 대한 신뢰마저 붕괴시키게 된다.
이미 저 한장의 이미지로 주식시장이 출렁거릴만큼 인간을 속이는 AI의 등장은 점차 확산되고 있다. 최근에는 보이스피싱으로 GPT를 사용하여 목소리를 일부 셈플만 있으면 얼마든지 조작이 가능한 상황이고, 이미 사용되고 있다. 이미지, 동영상도 이미 AI로 인간을 속이는 용도로 사용되고 그로 인한 인간의 피해는 증가하고 있다.
한편으로 인간의 일자리로 사실상 사라지고 있다. 생성형 이미지는 수많은 일러스트레이터의 일자리를 위협하고 있고, 10명의 일을 단 2명이 해결하고 있다. 창작의 영역에 AI가 더 활발하게 사용됨에 따라서 다양한 대회에서 AI가 우승하는 것은 이제 새로운 것도 아니다.
많은 기업들도 생성형 AI의 도입을 적극적으로 검토하고 있는 상황이지만, 그 파급효과를 심각하게 고민하는 경우는 많지 않다. 예를 들어 사내 적용 시 GPT가 말하는 것들이 과연 정답일지, 혹은 다른 거짓정보를 사실처럼 가이드하는 문제가 생겼을 경우 과연 그 문제로 인해 생기는 것들을 어떤 기준으로 처리할지 전반적 AI에 대한 문제를 극단적 상황까지 고려하지 않는다.
그래서 기술을 도입한다는 것은 단순히 경영자의 의사결정에 보완적 검토가 필연적으로 중요한 점이다. 기술로 인해서 생기는 문제가 과연 어떤 것일지, 그로 인해서 발생되는 것들은 어떻게 처리할 것인지, 회사의 기밀, 거짓정보 등의 발생에 따른 대비는 어떤 조직이 어떻게 대응할 것인지 등등의 기준을 만드는 것이 중요하다.
모든 기술에는 양면이 존재한다. 희망적 미래만을 생각하다보면 그 이면의 어두운 면으로 더 큰 위험에 직면할 수 있다. 과장일 수 있지만, 그만큼 현재의 GPT 열풍 속에 숨은 위기는 시한폭탄처럼 어느곳에서 터질 때 비로소 알게 될 수 있다. 도입에 있어서 신중할 필요가 있는 점도 바로 이 부분이다.
기술의 맹신보다는 기술의 활용을 어떤 관점으로 접근할 것인지, 기술을 보다 객관적 시각으로 바라볼 시점이 아닐까 한다.
https://v.daum.net/v/20230523161007547
"펜타곤 폭발" 가짜사진에 휘청인 美증시, AI 더 똑똑해진다면…
인공지능(AI)이 만들어 낸 가짜사진 확산에 미국 주식시장이 한때 출렁거렸다. AI가 활용된 허위 정보 유포에 따른 우려가 현실화한 사례라는 평가가 나온다. AI로 생성된 가짜 뉴스·이미지 확산
v.daum.net