[1월16일] ai가 주는 2가지 착각...'자신감 상실'과 '전문성의 환상' - ai타임스

'챗GPT’가 등장한 지 3년이 넘었고, 국내에서도 2000만명이 이를 사용했다는 통계가 나오고 있습니다. AI 챗봇을 업무나 학습에 사용하는 사람도 부쩍 늘어나고 있습니다.

AI를 많이 활용하는 사람들은 편리함과 속도에 감탄합니다. 심지어는 인간 같은 창의력을 발휘하는 순간도 많다고 입을 모읍니다. 3년간 진행된 AI의 발전을 감안하면 이런 말이 나오는 것은 자연스럽습니다.

반면, 과거 인터넷이 그랬듯 AI에 의존하면 인간의 인지가 후퇴할 것이라는 경고도 등장하고 있습니다.

사실 이 기술은 등장한 지 얼마 되지 않았기 때문에 우리에게 실제 어떤 영향을 미치고 있는지는 확실하지 않습니다. 관련 연구도 아직 초기 단계입니다.

이 가운데 최근 미국의 싱크 탱크 몇곳이 AI 사용에 따르는 주의점을 지적해 눈길을 끌었습니다.

우선 국제 데이터 센터 협회(International Data Center Authority)의 메흐디 파랴비 CEO는 AI가 '획일화’를 일으킬 수 있다고 지적했습니다.

그는 "예전에는 '틀에서 벗어나 생각하기’라는 개념이 있었다"라며 "하지만 모든 사람이 AI라는 하나의 틀에서 창의력과 분석력, 혁신력을 끌어내는 시대가 되면 그런 개념은 곧 사라질 것"이라고 말했습니다.

이어 AI에 과도하게 의존하게 되면 가장 먼저 '자기 확신의 상실’이라는 피해가 생긴다고 밝혔습니다. "AI가 당신보다 글을 더 잘 쓰고 더 똑똑하게 생각한다고 믿게 되면, 당신은 스스로에 대한 자신감을 잃게 될 것"이라는 설명입니다.

이어 "갑자기 AI 없이는 내가 충분히 잘할 수 없다는 것을 깨닫게 되고, 날이 갈수록 AI에 의존하는 경향이 커진다"라고 덧붙였습니다.

실제로 최근 연구 결과나 관계자들은 AI에 크게 의존하는 직원들이 핵심 역량을 놀라울 정도로 빠른 속도로 잃어가고 있다고 입을 모으고 있습니다. 워크 AI 연구소(Work AI Institute)의 보고서도 이런 점을 지적하고 있습니다.

특히 레베카 힌즈 워크 AI 연구소 소장은 "AI가 전문성에 대한 환상을 만들어내는데, 이는 아직 기초를 다져야 하는 경력 초기 단계의 직원들에게 특히 위험하다"라고 말했습니다.

이는 AI를 써서 결과물을 내면 마치 본인이 그 지식을 완벽히 습득한 것으로 착각하게 되는 것을 말합니다. 겉으로는 전문가처럼 들리는 보고서를 냈지만, 그 이면의 논리나 돌발 변수에 대응하는 지식은 쌓지 못했다는 내용입니다.

기술 싱크 탱크인 노스타랩의 존 노스타 창립자는 좀 더 근본적인 문제를 지적했습니다. 대형언어모델(LLM)은 인간과 생각하는 방식이 반대라는 것입니다. 그래서 이를 '반지능(anti-intelligence)'이라고 불렀습니다.

보통 인간의 생각은 의문→탐색→마찰(시행착오)→이해→결론의 과정을 거칩니다. 예를 들어 사과에 대해 생각할 때 그것을 공간, 시간, 기억, 문화, 그리고 살아온 경험 속에 놓고 생각합니다.

그러나 LLM은 그런 작업을 거치지 않습니다. 대신, 단어를 수학적 객체로 표현하고 통계적으로 일치하는 패턴을 찾습니다. AI의 출력은 이해력과 논리에 바탕을 둔 것이 아닌, 언어 패턴과 일관성에 최적화된 것입니다.

그 결과 AI의 답변은 세련되고 권위가 있어 보이기 때문에 사람들은 의문을 제기하고 탐구하고 완전히 이해하려는 노력을 기울이지 않고 즉시 받아들이는 경향이 있다는 말입니다.

사람은 과정이 생략된 결론을 '이해’하는 것이 아니라, '수용’하는 데 그친다는 설명입니다. 그 결과, 인간도 결론에 맞춰 거꾸로 논리를 짜맞추게 되며, 이 과정에서 비판적 사고 능력이 사라질 수 있다는 지적입니다.

노스타 창립자는 "우리가 넘어지고, 어려움을 겪고, 마찰을 겪는 것이야말로 우리를 진정으로 발전하게 만드는 것"이라고 말했습니다. 운동에 비유하자면, AI를 쓰는 것은 전동 휠체어를 타는 것과 같습니다. 목적지에는 빨리 가지만, 스스로 걷는 근육(사고력)은 점차 퇴화하게 됩니다.

하지만, AI를 무조건 거부하라는 것은 아닙니다. 속도를 중요하게 생각하는 기업 특성상 AI 활용을 막기도 어렵습니다.

대신, 파랴비 CEO는 '의도적인 제한’이 필요하다고 조언했습니다.

가장 중요한 것으로 "워크플로우의 양 끝을 사수하라"라고 말했습니다. 이는 아이디어를 처음 기획하는 단계와 최종 결과물을 검증하는 단계는 반드시 인간이 주도해야 한다는 것입니다.

또 마찰을 유지하라고 강조했습니다. 효율성이 조금 떨어지더라도, 때로는 AI 없이 스스로 문제를 해결하며 인지적 마찰을 겪는 시간을 확보해야 능력이 유지된다는 것입니다.

이처럼 AI 도입이 가속하며, 이제는 올바른 AI 사용법에 대한 주장이 잇달아 등장하고 있습니다. AI를 사용 찬반은 이미 논점이 아닙니다.

이런 것이 'AI 리터러시’의 방향성으로 보입니다. 단순히 AI 활용법을 익히는 것이 아니라, ▲AI가 단순한 통계적 예측 모델이라는 것을 정확하게 인지하고 ▲질문을 잘 던지는 능력(프롬프팅)뿐만 아니라, 결과물을 평가하는 비판 능력을 기르고 ▲’조용한 인지 능력 저하’를 막기 위해 어떤 경우에 AI 없이 스스로 생각해야 할지를 판단하는 능력 등을 말합니다.

이처럼 'AI를 부리는 주인으로서의 역량’이 강조돼야, AI 일자리 대체에 대한 근본적인 접근이 가능해지며 진정한 협업도 가능해질 것이라는 분석입니다.

나아가 AI 시대의 진정한 승자는 도구를 잘 쓰는 것을 넘어, '조용한 인지 저하’를 막고 자기 생각을 강화하는 사람이 될 것이라는 말입니다.