AI 써도 바보 되는 사람 vs 똑똑해지는 사람

📋 목차


    ⚡ 5분 요약

    • AI 답변을 그대로 믿는 순간, 내 머리로 생각하는 힘이 사라진다
    • 정보 찾는 것과 판단하는 건 완전히 다른 영역
    • 진짜 인재는 머리는 사람이 쓰고, 단순 작업만 AI에게 맡긴다
    • AI한테 계속 질문 던지고 의심하는 사람이 글도 잘 쓴다
    • AI 시대 글쓰기 : 정보량이 아니라 얼마나 다르게 해석했느냐가 포인트

    요즘 주변을 보면 이런 사람들이 점점 늘어납니다. "챗GPT가 이렇게 말하던데?", "AI가 찾아준 정보니까 당연히 맞겠지?" 문제는 그런 결과를 한 번도 의심하지 않고, 그대로 복사해서 다른 사람에게 보여준다는 점이에요.

    마치 네이버 검색 1위에 뜨면 진리인 줄 아는 시대에서, 이젠 "AI가 말했으니까 더 정확하다"고 착각하는 단계로 넘어가고 있습니다.

    하지만 직접 여러 번 써 본 사람들은 알죠. 챗GPT나 클로드 같은 대화형 AI는 편리하지만, 답변이 오락가락하고, 가끔은 아주 그럴듯한 거짓말도 자신 있게 한다는 사실을 말이죠.

    이런 현상을 AI 업계에서는 '할루시네이션(환각)'이라고 부르는데, AI가 실제로 존재하지 않는 정보를 마치 사실인 것처럼 생성하는 겁니다. 그래서 진짜 믿을 만한 정보로 쓰려면, 결국 사용자가 계속 캐묻고, 교차검증하고, 자신의 지식을 던져서 끝까지 확인해봐야 해요.

    🤖 AI를 그대로 믿는 순간, 생각하는 힘은 사라짐


    대화형 AI의 대답은 문장도 매끄럽고, 논리도 그럴듯합니다. 처음 써 본 사람은 "와, 이 정도면 그냥 이대로 써도 되겠는데?"라는 생각이 들 수밖에 없죠. 하지만 여기에 큰 함정이 하나 숨어 있습니다.

    AI는 모르면 모른다고 잘 말하지 않아요. 미국 워싱턴대학교 칼 버그스트롬 교수는 "GPT는 자신이 하는 말의 의미를 모른 채 그럴싸한 답변을 하도록 만들어졌다. 모르는 내용이 나오면 그저 추측해서 답을 내놓는다"고 지적했습니다. 사용자 입장에서는 사실인지 아닌지 모른 채, 그 답을 기준으로 판단을 시작하게 되죠.

    이 순간부터 판단의 출발점이 내 머리가 아니라, AI가 만들어낸 불완전한 정보가 됩니다. "생각의 기준"을 스스로 세우는 게 아니라, AI가 던져준 답 위에 내 생각을 얹는 수준에 머물게 되는 거예요. 이건 도구를 잘 쓰는 게 아니라, 생각을 AI한테 맡겨버리는 겁니다. 그래서 이런 패턴이 반복되면, 점점 스스로 고민하고 판단하는 힘이 약해져요.

    📋 정보만 찾지 말고, 스스로 판단까지 해야 함


    문제는 많은 사람들이 AI를 "검색 업그레이드 버전" 정도가 아니라 "내 대신 판단해주는 도구"로 착각하고 있다는 점입니다. "AI가 이게 맞대 → 그럼 맞겠지", "AI가 이 논리를 설명해줬어 → 난 그냥 이걸 다른 사람에게 전달만 하면 돼." 이 패턴이 무서운 이유는, 본인은 공부하는 줄 알고 있지만 실제로는 머리를 거의 안 쓰고 있다는 점이에요.

    정보를 머리에 넣는 것과, 그것을 기준으로 스스로 판단하는 것은 전혀 다른 단계입니다. 실제로 SBS 스위스 경영대학원은 2025년 1월 연구에서 AI 도구 사용 빈도와 비판적 사고력이 반비례한다는 결과를 발표했죠. 정보만 찾는 단계에서 끝나는 사람의 특징은 아래와 같습니다.

    • AI가 준 답을 참고 자료가 아니라 정답처럼 취급함.
    • 잘못된 내용이어도 이상하다는 감각이 없음.
    • "왜?", "정말?", "근거는?" 같은 질문이 사라짐.

    결국 이런 사람은 AI가 틀릴 때 같이 틀리고, AI가 오락가락하면 같이 흔들립니다. 도구가 똑똑해질수록, 사용자는 점점 더 수동적인 사람이 되는 셈이죠.

    💡 진짜 인재는 머리만 사람이 씀


    AI 시대에 살아남는 사람을 한 문장으로 정의하면 이렇습니다. "생각·판단·질문은 사람이 하고, 단순 반복 작업만 AI에게 시키는 사람." 미국 MIT와 캐나다 맥길대 공동 연구팀은 AI를 활용한 글쓰기 과정이 인간에게 '인지적 부채'를 누적시킬 수 있다고 경고했어요. AI에게 맡기면 안 되는 영역과 맡겨도 되는 영역을 명확히 구분해야 한다는 거죠.

    *아이디어 구상, 관점 설정, 글의 방향 결정 → 사람이 직접 해야 할 영역
    *자료 수집, 초안 작성, 통계나 사실 찾기 → AI에게 맡겨도 되는 영역

    이 구조를 지키는 사람은, AI를 쓰면 쓸수록 오히려 더 똑똑해집니다. 왜냐하면 AI가 던져주는 수많은 정보들을 "검증하고, 다시 짜고, 해석"하면서, 자신의 머릿속 구조가 점점 더 단단해지기 때문이에요. 반대로, 방향 설정부터 결론까지 AI에게 맡기는 사람은, 시간이 지날수록 자기 생각이 옅어지죠.

    ✍️ AI한테 계속 질문 던지는 사람이 글도 잘 씀

    직접 써 본 사람은 압니다. AI가 써준 글을 그대로 복사하면, 절대 좋은 글이 나오지 않는다는 사실을... 진짜 좋은 글이 되려면, 중간에 반드시 다음 과정이 들어가야 해요~

    1단계 : AI에게 정보를 묻는다 → 초벌 자료 확보
    2단계 : 내가 가진 지식, 경험을 계속 던져보며 AI 답변을 흔들어 본다

    • "이 경우는 예외 아냐?"
    • "이 논리는 앞에서 한 말과 모순되지 않나?"
    • "한국 상황에서는 안 맞을 수도 있는데?"

    3단계 : 말이 안 맞거나 허술한 부분은 직접 찾아보고 고친다
    4단계 : 최종적으로 내 말투로 다시 쓴다

    이 과정이 길고 번거로워 보이지만, 사실 이 순간이야말로 내 머릿속에서 개념들이 정리되고, 논리의 빈틈이 채워지고, "아, 그래서 이게 이렇게 연결되는구나"라는 깨달음이 생기는거죠.

    그리고 이렇게 다듬어진 글은, 읽는 사람도 느낍니다. "아, 이건 단순히 AI가 뱉은 글이 아니라, 누군가가 제대로 소화하고 다시 쓴 글이구나"라는 것을 말이죠.

    🎯 AI 시대, 글쓰기 기준이 바뀌고 있음


    이제 글쓰기의 기준은 바뀌고 있습니다. 과거에는 "얼마나 많은 정보를 알고 있냐", "자료를 얼마나 잘 모았냐"가 중요했어요. 하지만 이제는 완전히 달라요.

    *새로운 기준 : "남들도 다 아는 정보를 가지고, 얼마나 다르게 보고, 정리하고, 연결하느냐", "AI가 내놓은 결과를 어디까지 의심하고, 어디까지 다시 해석했느냐"

    대화형 AI를 쓰는 사람은 앞으로 계속 늘어날 겁니다. 하지만 그중 극소수만이 '진짜 글 쓰는 사람'으로 남게 될 거예요. 차이는 아주 단순합니다.

    AI 답변을 그대로 믿고 복사하는 사람 vs AI 답변을 재료로만 쓰고, 최종 판단은 스스로 하는 사람

    결론적으로, 지금처럼 "AI가 찾아준 결과를 곧이곧대로 안 믿고", "내가 가진 지식으로 계속 AI를 테스트한다", 이 습관을 유지하는 사람은 AI 시대에 뒤처질 가능성이 거의 없습니다. 오히려 이런 사람에게 AI는 머리를 무디게 만드는 도구가 아니라, 생각을 더 깊게 만드는 도구가 되는거죠.

    AI가 일을 대신해 줄 순 있지만, 사람의 생각까지 대신해 줄 순 없습니다. 그리고 그 차이를 분명히 알고 있는 사람이, 앞으로 '정말 귀한 인재'가 될 거예요.

    생성형 AI의 할루시네이션 현상

    Q1. AI 답변을 어디까지 믿어야 하나요?
    초벌 자료로만 쓰고, 반드시 확인하세요. AI는 그럴듯한 거짓말도 자신 있게 합니다.

    Q2. AI 시대에 필요한 핵심 능력은?
    판단력, 질문하는 능력, 의심하는 능력입니다. 정보 찾는 게 아니라 다시 해석하고 검증하는 게 핵심이에요.

    Q3. AI 쓰면 머리가 나빠지나요?
    AI한테 판단까지 맡기면 나빠지지만, AI를 재료 삼아 계속 질문하고 검증하면 오히려 더 발전합니다.

    Q4. 좋은 글을 쓰려면 어떻게 해야 하나요?
    AI가 써준 글을 그대로 쓰지 말고, 내 지식을 계속 던져보고, 최종적으로 내 말투로 다시 써야 합니다.

    AI를 어떻게 사용하고 계시나요?

    AI 잘 쓰는 노하우와 경험을 댓글로 꼭 남겨주세요~

    댓글

    곰씨네는 다양한 정보를 다루는 16년차 개인 블로거로, 신뢰할 수 있는 자료를 바탕으로 정확하고 유용한 내용을 포스팅합니다.