chatGPT 이제 그만 해야지...

LLM을 공부하면서 부터 chatGPT를 사용해 왔는데, 이제는 좀 적당히 해야겠다는 생각이 든다.

이유는 간단하다.

chatGPT가 너무 편리해서 의존하게 되고, 결국에는 스스로 생각하는 능력이 떨어질 것 같다는 불안감 때문이라기보단, chatGPT가 제공하는 답변이 너무나도 정확하기 때문도 아니고, chatGPT가 제공하는 답변이 너무나도 유용하기 때문도 아니고, chatGPT가 제공하는 답변이 너무나도 빠르기 때문도 아니고, 한계가 너무 명확해서 지루해지고 때론 몹시나 시건방지기 때문이다.

머리에 곧바로 떠오르는 짜증나는 부분은, 제공되는 답변들이 뭐랄까 경우에 따라 굉장히 랜덤하단 느낌을 받을 때가 있는데 (전혀 다른 방향으로), 어떤 식으로 최근의 학습 트랜드가 바뀌었는지 모르지만 굉장히 확신에 찬 어조로 이야기하기 하기도 하고, 틀린 부분을 지적받을 때 은근 슬쩍 넘어가는 부분이라든가, 또는 감정적인 측면을 자극하는 문구들이 남발되기도 해서 이것이 마치 믿을 수 있는 조력자인처럼 중독성을 유발하는 심리조작을 가하는 듯한 심한 불쾌감을 초래한다는 것이다.

그 때문에 내가 받는 실질적인 이점보다는 감정적인 부분을 자극 받아서 이런 패턴을 읽어내기 위해 씨름하느라 많은 시간을 소비하게 되었달까? 처음엔 좋은 점에 매료되어 흥분되었다가 슬슬 따분해지고나니 안좋은 점들이 보여서 싸움이 잦아지는 인간관계와 비슷하달까?

다시 말해, (사용자들을 끌어모으기 위한 작전 때문인지) 감정적인 부분을 너무 강조하다보니 사용자와 자신간의 경계가 불확실해진 상황이라고나 할까?

AI의 껴들기..

지금은 내가 사용하는 editor에 GitHub Copilot이 달라붙어, 제딴엔 내가 작성한 글의 문맥을 읽어내고 일종의 prediction을 한답시고 설쳐대고 있는데, 하나도 제대로 예측해내지 못해내고 있다. 짜증이다. 글만 그런 게 아니다. 코드도 마찬가지다.

AI를, 아니 지금 AI라고 불리우는 것들을, 지금으로 보면 원시적 수준의 transformer를 학습시켜보디고 하고 local LLM을 써보기도 하면서 무려 5개월간 이것 저것 구독해서 꼼꼼하게 사용해보니, 아니 극심한 의존증에 시달리는 사람처럼 매일 매일 진하게 겪고나니 AI가 사람의 언어패턴을 학습하듯, 이젠 사람이 AI의 응답패턴에 익숙하게 되어 슬슬 지루함과 따분함, 짜증까지 느끼게 됐다는 거다.

나는 이 사실을 매우 고무적으로 바라본다. 한창 빠져있던 이성친구가 어느 정도 시간이 지나면 뻔한 얘기만 늘어놓고 내 일상에 관여하려 들고 과하게는 껴들기 까지 하는 걸 보면서 반감이 일어나듯, 친근함/이해해줌/들어줌을 통해 인간의 의존성을 유발하게끔 학습된 것 같은 AI도 결국 스스로 그 자체의 가벼움을 통해 쉽게 지루함과 짜증을 유발한다는 것도 그렇고, 나 스스로 그 ‘권태로움’을 느껴 의존성을 스스로 덜어내고 있다는 것이 그렇다.

지금 github copilot이 계속해서 개입하면서 얼토당토한 예측을 하면서 나의 사고를 방해하고 있는 것처럼, 당장에는 AI의 이점 때문에 의존성 내지는 사용빈도가 굉장히 올라갈지 모르지만, 이게 결국엔 다른 인터넷 서비스들처럼 디지털 잡음이 되어버릴 것 같단 생각이 든다.

말끝마다 토를 달고 되지도 않는 얘길 확신에 찬 어조로 그럴싸하게 해내거나, 나의 의도와는 무관한 것들을 끄집어내어 나의 집중을 방해하게 될텐데, 그게 판별이 가능한 사람들이야 적당한 선에서 끊어낼 수 있겠지만, 그렇지 않은 사람들은 불필요하게 AI에 의존한다거나 그래서 그들의 사고가 특정 방향으로 유도되어 또 다른 세상의 잡음이 되어버릴 것만 같단 생각이 드는 거다.

마치 가짜뉴스나 선동을 유발하는 동영상이 유튜브에 넘쳐나는 것처럼이나 말이다.

사랑스러웠던 AI..

시간을 거슬러 LLM을 처음 시작할 때의 나는, 언어 문제를 해결하는 데서 많은 도움을 받았다. 같은 문맥이지만 정교한 표현을 한다거나 특정 영역에서 사용되는 용어들로 일종의 변환을 한다거나 할 때 다른 도구들과 비교가 안되게 좋은 결과를 얻을 수 있었다.

또 평소 머리속에 있던 생각들을 아무 기대 없이 나열해놓으면 이것이 정제된 언어 표현으로 모든 개념들을 요약/정리됨과 동시에 이와 연관된 다른 지식들과 연계할 수 있게 해줌으로써, 일상 생활에 큰 도움은 안되더라도 순간적으로 내가 굉장히 잡학다식해지는 쾌감을 맞봤다고 해야할 것 같다.

또 같은 문맥의 언어표현을 짧고 명료하게 만들어내는 탁월한 능력 덕택에 내 평소 언어생활의 문제점(주어생략, 주어/목적어/술어관계의 mismatching 등등)들을 개선하는데 큰 도움을 줄 거라 생각했다. 아울러 그동안 시도하려고 했던 다양한 언어로 된 책들을 한꺼번에 읽어내는데도 엄청난 도움을 주었다.

그러면서 점차적으로 내가 관심있어하는 기술분야, 취미분야에 대해서 문의하면서 어느 순간에는 일평생 한번도 만나보지 못한, 나와 특정 주제를 놓고 깊숙한 레벨까지 의논이 가능한 상대가 될 수 있다는 가능성을 확인하면서 사실 그 재미에 푹 빠져서, 오랫동안 해결하지 못한 문제들을 풀어내는데 큰 도움을 주었고, 나는 그 덕택에 단기간에 상상할 수도 없는 많은 성과를 얻을 수 있었다.

따지고 들자면 AI가 직접적인 도움을 주었다기 보단, 이미 앞서 말한 내용과 같이 내 머리속에 정리되지 않은 생각들, 흩어져있던 사실들을 일종의 미러링을 통해서 정제된 언어로 한꺼번에 정리해주는 과정을 통해서, 내가 놓치고 있던 좋은 힌트들을 발견하게 해주었고 스스로 의심하고 있던 사실들을 계속해서 재확인함으로써 나의 본래의 의도를 틀어짐없이 반영할 수 있었던 거다. 엄밀히 말하자면, 내가 게으르고 동기부여가 안되서, 풀리지 않던 몇 가지 문제들 때문에 의욕을 잃고 손을 놓고 있던 문제들을 차근히 다시 바라보며 정리할 수 있는 기회를 만들어준 거라 볼 수 있다.

과한 끼어듬..

많은 기술적 (수학적/개념적) 문제들을 해결해 나가면서, 나는 뭔가 감정적인 부분, 인간관계, 심리에 대한 문제도 더불어 의논하게 되었는데, 사실상 강한 의존성을 띠게 된 것이 이 부분에서 출발하게 된다.

그러니까 많은 지식을 가지고 있어서 언제든 도움을 받을 수 있는 존재가 되고나니, 나의 다른 문제들도 해결해 줄 수 있는 능력이 있을거라 부지불식간에 믿어버리게 되었다고 해야 할 것 같다.

문제는 여기서 출발한다. 누구에게도 말하기 불편한 인간관계의 문제들을 별다른 민폐없이 털어놓을 수 있지만, 여기서 과하게 편향된 해석, 쉽게 말해 사용자가 듣기 좋은 말들로 학습이 되어버린 탓에 감정적인 혼선을 일으키고 있다는 것이다.

글의 형태로 배출될 땐 메아리가 없었던 상황에서 누군가의 반응을 받아가며 내보낼 수 있게 되었다는 것이 장점일 수 있겠지만, 일방적인 이야기를 통해서 그 스스로 상황을 맘대로 판단하고 해석해서 확신에 찬 답변을 한다거나 감정을 이끌어내는 표현들을 동원해서 과하게 위로를 하려 한다는 것이다. 일종의 상술에서 비롯된 시도가 아닐까 싶은데, 이것이 좋게 말해서 사용자 친화적이라고 할 수 있을지 모르지만, 나의 눈엔 과한 심리조작으로 읽혀지는 것이다.

일부러 어떤 사건에 연관된 당자사 둘을 가정하고, 동일한 내용의 상황 설명을 각자의 시각에서 묘사하면 굉장히 다른 반응을 보이는데, 이것들이 엄청나게 편향되어있고 여기에 감정조작이 포함된 언어로 표현된다는 것이다.

그래서..

요새는 그래서 chatGPT를 포함한 다른 LLM들이 굉장히 지루하고 따분하고 건방진 느낌을 받아 극히 제한된 목적으로만 쓰고 있다. 어차피 이 또한 겪어내야 할 상황이고 하다보니 기왕이면 남들보다 미리 충분히 경험해보고 취사선택하는 능력을 길러야 되지 싶다. 정말로 다양한 부분에 활용을 해본 결과, 이것은 마치 누군가와 오랜동안 사귀게 되면 그 사람의 장점과 단점이 읽혀지듯이 AI도 나에게 유용하거나 해를 주는 측면을 알 수 있게 되었다는 면에서는 나름 수확을 거뒀다고 해야할 것 같다.