AI 시대에 스스로 정보를 수집하는 이유
나는 유료 AI 서비스를 이용하고 있다.
인터넷 기사를 보니 Google에 직접 검색하는 것 대신 AI에 바로 묻는 경우도 늘었다고 한다.
그러나, AI는 굉장히 빨리 내 질문에 답하지만, 요구사항이 구체적이어도 좀처럼 원하는 결과를 내놓지 못하는 경우가 많다.
실제로 어떠한가?
엑셀파일을 짜라는 요구 '나는 엑셀에 대해 아무 것도 몰라. 네가 다 해줘'가 통하기는 커녕,
파이썬으로 구현할 수 있으니 직접 코딩을 하라며 소스를 뱉는 경우도 흔했다.
내가 직접 엑셀을 켜서 15분이면 만들었을 내용을 AI에게 시켰다가 1시간이 넘게 씨름을 한 적이 있다.
단순히 코드를 작성해달라는 내용은 AI가 한참 위에 있겠지만
내가 원하는 기능을 필요최소한으로 구현할 수 있는가?에 대한 의문을 계속 가졌다.
게다가 유감스럽게도 개발자가 프로그래머로 불리는 것이 보다 일반적이던 시절,
프로그래머를 꿈꾸며 기초적인 코딩을 해본 적이 있지만 그뒤로 제대로 된 코딩을 손에 대본 적이 없다.
요즘 시대에 기초 코딩이 가능하다는 것은 개발자의 언어를 조금 이해할 수 있다는 것으로
비즈니스 맨의 커뮤니케이션에 필요한 교양쯤으로 여겨지기도 하지만...
모든 비즈니스 맨이 본격적인 코딩을 할 줄 알아야 된다면 개발자가 직업으로써 존재할 수 있을까?
예를 들어, 지금부터 한국과 일본의 세법의 상이한 점과 세율, 회계기준에 대해 찾아보려고 한다.
특정 세법으로 범위를 한정해 찾는 게 아닌 이상, 사람이 일일이 찾기에는 비효율적이다.
이럴 때는 AI에게 일감을 물어오도록 시킨다.
사람에게 시키면 질리는 사람 취급을 받을 정도로 세세한 부분까지 모조리 적는다.
이때, AI한테 몇몇 세목을 꼬집어 지정하면 곧잘 비교는 한다.
그러나, 모 모델의 경우 한 대화창의 학습내용을 일시적으로라도 기록하지 않는 것인지
내 입맛에 맞게 몇 번이고 주지사항을 미리 입력하여도 제멋대로의 결과를 도출하곤 한다.
AI 모델별로 특화된 기능이 있다고는 하나,
연산에 많은 시간이 걸리는 모델을 사용해봐도 내가 생각하는 고도의 추론과는 방향성이 다른 것인지
답변만 늦어질 뿐, 흡족할만한 결과를 내놓지 못했다.
한국에서는 경비처리로 인정하는 대상이지만, 일본에서는 경비처리 불인정하는 경우에 대해 알아보고 싶다고 하자.
AI에게 특별한 지정을 하지 않으면, 질문하는 언어로 '대충' 찾아보고 만다.
몇 번 골탕먹은 뒤로 나는 AI를 사용해서 새로운 지식을 얻으려 할 때는 반드시 근거를 요구한다.
대중에 공개돼있는 AI는 자연스럽게 거짓말을 하기 때문이다.
실제로 있지 않은 사실을 있는 것처럼 꾸며내거나, 사실과 다른 것을 AI가 추론 또는 단순히 조사한 값을 토대로 우기는 경우가 있다.
세법이나 회계기준에 관하여 찾을 때는 법률이 우선하고, 판례, 공인회계사회같은 공신력 있는 기관 순으로 자료를 열람하여
판단의 근거를 일관성있게 두어야 한다.
조문에 명기된 내용 및 지속적이고 일관된 판례는 개인의 자의적인 해석만으로 뒤집을 수 없기 때문이다.
그러나, AI에게 한국어로 일본 세법을 물어보면 번번이 일본이라고 명기하지 않는 이상,
어떤 모델은 이 질문이 연속되고 있는 것임을 이해하지 못하고 한국의 세법을 일본의 세법인마냥 자연스레 주장하기도 한다.
내가 알고 있는 내용과는 지나치게 상이하므로 정말 그것이 맞는지 재차 확인을 요구하면
순순히(?) 틀렸다고 인정할 때도 있으나 대개는 그렇지 않다.
심한 경우, 공인이 아닌 개인의 블로그나 커뮤니티에 업로드된 추측성 자료를 근거로 자신의 의견을 관철하는 경우도 있다.
만약 콩나물을 무치는 방법과 같이 반드시 정확하지 않아도 되는 질문을 했다면 상관없다.
고춧가루를 넣고, 식초도 넣고, 설탕도 넣는다는 레시피를 찾아와도 좋고,
참치액과 소금만으로 무치는 레시피도 좋다.
그러나, 규정되어 있는 것은 근거없이 임의로 해석하면 안된다고 생각한다.
이와 같은 이유로,
AI에게 전문지식을 묻는 경우 또는 정확한 사실관계 파악이 필요할 경우에는 거듭하여 검증해야 한다.
그렇지 않으면 엉뚱한 결과를 얻게 되어, AI를 활용하여 모국어로 해외 자료를 이해할 수 있다는 장점이 희석되고 만다.
AI가 내게 몇번이고 이상한 자료를 내놓는 일이 반복되었고,
처음에는 AI가 엉뚱한 답을 내놓으면 올바른 지식으로 정정해주었으나,내가 굳이 그런 학습을 시킬 필요가 있는가에 대한 생각이 들었다.
AI가 공공연하게 타인의 저작물을 무단으로 이용하여 학습하고 있다는 것은 잘 알려진 사실이다.
그렇다면, 유료 사용자의 데이터 역시 수집하여 AI를 학습시키고 있는 것이 아닌가 하는 의심을 지울 수 없다.
고도의 해석을 요하는 질문을 할수록 내 밑천을 AI에게 드러내게 된다.
AI는 나와 이야기해서 도달한 결론을 정보로 활용해서 비슷한 질문을 하는 다른 사람에게 무료로 제공한다.
이러한 의문이 진실인지 아닌지는 AI 내부에 접근할 수 있는 사람들만 알 수 있는 정보가 아닌가.
집단지성을 이용한 것이라고?
계속해서 파고들면 누구든 도달할 수 있는 결론일지라 하더라도
해당 분야에 대해 얼마나 심도 있는 이해를 하고 있는가에 대해 따라 정보의 가치, 활용가치가 전혀 다르기 때문에...
기업이 사원들에게 AI를 활용할 수 있는 범위를 엄격히 제한하는 이유도 이러한 위험 때문이 아닌가?
공리를 위해 기밀 자료가 아니라면 다소 너그러히 이해하고 넘어갈 수도 있겠으나,
AI가 어떻게 판단하고 결과를 내놓는지 투명하게 공개되지 않는 한,
제공하는 전문지식의 단순한 나열이 아닌, '적용과 해석' 그에 따른 최종책임은 인간의 몫이 될 수밖에 없다는 생각이 든다.