AI가 대신 쓴 과제, 누가 책임지는가
ChatGPT가 과제를 완성하는 데 30초도 걸리지 않는 시대다. 그렇다면 그 글을 제출하는 사람은 과연 무엇을 배운 것일까. 생성형 AI가 학교와 직장, 공공기관 안으로 들어온 지금, 우리가 진짜 물어야 할 질문은 하나다. AI가 만든 결과물의 끝에서 누가 책임지는가.
생성형 AI는 이미 학교, 기업, 행정 현장 안으로 깊숙이 들어왔다. 공공기관은 업무 지원에 생성형 AI를 활용하기 시작했고, 대학은 과제와 시험에서 AI 사용 기준을 마련하고 있다. 변화는 분명하다. 생성형 AI는 이제 일부 전문가만 다루는 도구가 아니라, 일상적인 학습과 업무 환경을 바꾸는 현실의 기술이 되었다.
이 기술이 기존 AI와 다른 점도 분명하다. 과거의 AI가 주로 분류와 예측, 판별에 강했다면, 생성형 AI는 문장을 만들고, 설명을 쓰고, 요약을 하고, 초안을 작성한다. 생성형 AI의 등장은 AI를 ‘판단’의 영역에서 ‘표현’의 영역으로 확장시켰다. 그래서 변화의 폭도 더 크다. 학교에서는 과제와 평가의 기준이 흔들리고, 직장에서는 문서 작성과 회의 정리 방식이 달라지며, 공공영역에서는 정보 접근 방식 자체가 바뀌고 있다. 이제는 개발자가 아닌 일반인들도 자연어만으로 필요한 기능을 만드는 이른바 ‘바이브 코딩’에 관심을 보이고 있다. 생성형 AI의 영향은 콘텐츠 생산을 넘어 도구 제작의 영역으로까지 확장되고 있다.
이런 변화는 대학에서 가장 선명하게 드러난다. 국내 대학들은 이제 생성형 AI를 둘러싼 고민을 보다 구체적인 운영 원칙의 문제로 다루기 시작했다. 연세대는 생성형 AI 활용 지침에서 수업별로 AI 사용을 전면 금지, 제한적 허용, 전면 허용으로 나누어 운영할 수 있도록 하고, 강의계획서와 수업 안내를 통해 허용 범위를 미리 공지하도록 권고하고 있다. 또한 과제 제출 시에는 사용 도구와 활용 방법, 과정까지 명확히 적도록 안내한다.
서울대 역시 2026년 1월 AI 가이드라인을 제정해 일률적 금지보다 책임 있는 활용 원칙을 내놓았다. 이는 AI 사용이 더 이상 예외가 아니라, 이미 대학 수업과 평가 안으로 들어온 현실을 보여준다. 이제 대학의 과제는 단순히 “AI를 금지할 것인가”가 아니다. 오히려 AI 환경에서 무엇을 평가할지, 학생의 사고 과정과 책임을 어떻게 확인할지가 더 본질적인 문제가 되고 있다.
AI 활용에는 균형 감각이 필요하다. 생성형 AI의 활용 방법을 가르치고, 필요한 영역에서는 적극적으로 쓰게 하는 일은 분명 필요하다. 그러나 그것만으로는 충분하지 않다. 잘 쓰는 방법을 알려주면서도, 어떤 상황에서는 제한이 필요한지에 대한 기준도 함께 세워져야 한다. 과제, 시험, 평가, 공적 의사결정처럼 결과에 대한 책임과 신뢰가 특히 중요한 영역에서는 더 그렇다. 생성형 AI는 답을 빠르게 제시할 수는 있지만, 그 답의 진위를 끝까지 판별하고 책임지는 주체가 될 수는 없다.
판별은 사람의 몫이다. AI가 만든 문장이 그럴듯해 보여도, 그것이 사실인지, 왜 그런 결론에 이르렀는지, 빠진 맥락은 없는지 살펴보는 일은 결국 사람이 해야 한다. 생성형 AI가 아무리 정교해져도 최종 책임의 자리까지 대신 차지할 수는 없다. AI 리터러시는 단순한 사용법 교육이 아니라, 결과물을 검토하고 의심하고 수정하며 책임지는 판단 훈련이어야 한다.
인간의 창의성 역시 여전히 유효하다. 생성형 AI 시대일수록 그 가치는 더 또렷해진다. AI는 익숙한 패턴을 조합해 빠르게 초안을 만들 수 있지만, 무엇을 왜 묻는지 결정하고, 어떤 관점이 필요한지 새롭게 문제를 제기하며, 결과물에 의미를 부여하는 일은 여전히 인간에게서 나온다. 학생이 AI를 통해 문장을 더 빨리 쓰는 것보다 중요한 것은, 그 문장을 자기 판단과 사고로 끝까지 책임질 수 있는가 하는 점이다. 창의성은 단순히 ‘새로운 결과물’이 아니라, 남이 만든 답을 그대로 받아들이지 않고 새로운 질문을 던지는 힘이기 때문이다.
책임은 누구에게 있는가?
지금 필요한 것은 두 가지를 함께 보는 시선이다. 하나는 생성형 AI를 무조건 두려워하지 않고, 교육과 업무 안에서 책임 있게 활용할 수 있도록 돕는 일이다. 다른 하나는 모든 영역을 무차별적으로 열어두지 않고, 어떤 상황에서는 제한과 기준이 반드시 필요하다는 사실을 분명히 하는 일이다. 활용과 통제, 개방과 제한, 효율과 책임은 서로 충돌하는 것처럼 보이지만 함께 가야 할 조건이다.
생성형 AI 시대의 경쟁력은 단순히 더 빨리 만드는 능력에 있지 않다. 더 중요한 것은 무엇을 믿고 무엇을 의심할지, 어디까지 활용하고 어디서 멈출지를 아는 능력이다. AI를 잘 쓰는 사람보다 더 중요한 사람은, AI가 만든 것을 끝까지 검토하고 자기 판단으로 책임질 수 있는 사람이다. 그 판단과 책임의 중심에는 여전히 인간이 있어야 한다.
원하면 다음 단계로 더 칼럼답게 압축한 버전이나 조금 더 신문 칼럼 톤이 강한 버전으로도 다시 다듬어드릴 수 있습니다.