[시론] AI, 속도보다 방향이 먼저다 - ‘거버넌스’가 만드는 신뢰의 기술

2025-11-23     권헌영 고려대 정보보호대학원 교수
권헌영 고려대 정보보호대학원 교수

  인공지능(AI)은 이제 더 이상 ‘미래 기술’이 아니다. 정부 행정부터 대학 연구, 민간 산업까지 AI의 도입은 눈부신 속도로 확산되고 있다. 최근 고려대학교가 GPU 클라우드 서비스를 개시해 연구자 누구나 대규모 연산 자원을 활용할 수 있는 환경을 마련한 것은 의미 있는 진전이다. 그러나 ‘빠른 도입’이 곧 ‘성공적인 활용’을 의미하지는 않는다. 지금 우리에게 필요한 것은 속도가 아니라 방향, 즉 거버넌스와 우선순위의 재정립이다.

 

  인프라 확보만으로는 리더가 될 수 없다

  많은 이들이 GPU 확보나 데이터센터 확충을 AI 경쟁력의 핵심으로 본다. 물론 물리적 인프라는 필수조건이다. 하지만 그것만으로는 충분하지 않다. AI는 데이터를 다루는 기술인 동시에 사람과 사회의 의사결정 체계를 재편하는 기술이다. 인프라보다 중요한 것은, 이 기술이 어떤 가치를 향해 쓰이고, 어떤 책임 구조 속에서 관리되느냐이다. 기술적 선두보다 신뢰할 수 있는 운영 원칙과 제도적 틀이 뒷받침될 때 비로소 선도국이 된다.

 

  공공과 민간의 ‘속도 경쟁’을 넘어

  현재 정부와 기업은 AI를 행정 효율화나 산업 생산성 향상의 도구로 바라보는 경향이 강하다. 하지만 AI는 ‘속도전’으로 접근할수록 위험해진다. 검증되지 않은 시스템이 행정 결정이나 국민 서비스에 도입될 경우, 단순한 오류가 아닌 정책적 불공정과 사회적 신뢰 훼손으로 이어질 수 있다. AI를 활용하는 목표가 ‘빨리 하는 것’이 아니라 ‘바르게 하는 것’이 되어야 한다. 이를 위해서는 정부·산업·학계가 함께 참여하는 AI 거버넌스 체계가 필요하다. 기술검증, 윤리기준, 데이터 품질관리 등 모든 과정에서 상호책임이 명확히 설정되어야 한다.

 

  기술보다 ‘질문하는 능력’을 키워야

  AI 분야에 진로를 두고 있는 학생들에게 강조하고 싶은 점은 ‘더 많은 코드를 짜는 능력’보다 ‘올바른 질문을 던지는 능력’을 갖추라는 것이다. AI는 수학과 프로그래밍 위에 세워지지만, 그 결과가 사회에 미치는 영향은 철학·법·윤리·정책 등과 긴밀히 연결된다. 기술의 진보만큼이나 그 한계를 이해하고 책임을 설계할 줄 아는 감수성이 필요하다. AI 시스템의 편향, 데이터 윤리, 보안 취약점은 단지 기술적 문제가 아니라 사회적 문제다. 기술자는 코드를 작성하면서 동시에 사회를 설계하고 있다는 점을 잊지 말아야 한다.

  인공지능 시대가 무르익으면, 인간이 지식을 습득하고 활용하는 과정에서의 기술적 한계는 점차 사라질 것이다. 따라서 앞으로의 사회에서 인간에게 요구되는 것은 단순히 더 많은 지식이나 기술을 익히는 것이 아니라, ‘생각하는 힘’과 ‘소통하는 힘’을 기르는 일이다. 생각하는 힘이란 ‘무엇이 문제인가’를 스스로 정의하고, 그 문제를 해결하기 위한 방향을 찾아가는 능력이다. 이는 결국 올바른 질문을 던지는 능력과 맞닿아 있다. 이러한 사고력은 단순한 정보처리 능력으로는 얻을 수 없으며, 철학적·인문학적 성찰을 통해 길러진다. 또한 소통하는 힘은 개인의 사고를 타인과 공유하고, 서로 다른 관점을 교류하며 문제의 본질을 함께 탐색하는 과정에서 발휘된다. 인공지능 시대일수록 각자의 도메인 안에서 이러한 협업과 공감의 훈련이 더욱 중요해진다.

  결국 생각하고 소통하는 능력은 인공지능이 대체할 수 없는 인간 고유의 영역이다. AI는 인간을 대신하는 존재가 아니라, 인간이 더 깊이 사고하고 더 넓게 소통하도록 돕는 도구가 되어야 한다. 이러한 역량을 갖춘 인재가 많을수록, 인공지능은 기술이 아니라 문명으로서 우리 사회에 정착하게 될 것이다.

 

권헌영 고려대 정보보호대학원 교수