출판사 리뷰
AI가 민주주의 거버넌스에 본격 도입되면서 기술의 투명성과 책임 확보가 핵심 과제로 떠올랐다. 알고리즘에 기반하는 의사결정이 사회에 미치는 영향을 감시하고 개발자와 정치 행위자의 책임을 묻기 위해서는 공공의 검토와 법적 견제가 가능해야 한다는 지적이 커지고 있다.
이를 위해 정책 차원에서 알고리즘 작동 방식 공개, 데이터 출처 명시, 결정 과정의 문서화 등 투명성 확보를 위한 조치가 필요하다.
과학기술의 발전이 민주주의를 약화할 것이라는 우려가 깊어지고 있다. 반대로 민주주의 발전에 과학기술 발전이 도움이 될 것이라고 주장하는 사람도 많지만, 이들 또한 최근의 추세와 관련해 우려하는 부분이 있다. 이러한 우려는 대부분 개인의 자유, 개인정보 보호 등의 문제와 관련되어 있다. (……) 과학기술은 어떻게 사용하고 누가 통제하느냐에 따라 민주주의를 개선하거나 약화할 수 있다. 현재 과학기술은 소수에 의해 통제되고 있다. 소수는 자신이 가지고 있는 통제 권력을 나누려고 하지 않는다. 강한 권력이 소수의 손에 집중될 때 그 결과가 어떠한지는 역사를 통해 잘 알고 있다.
생성형 AI에 의한 콘텐츠는 정치 이슈에 대한 합의 조작, 정부 대응력 약화, 여론 혼란과 분열, 유권자 현혹, 선거에 대한 신뢰 약화 등을 이전보다 더 쉽게, 더 적은 비용으로 가능하게 한다. 이러한 시도는 새로운 것이 아니며 이전부터 계속된 문제들이다. 그러나 새로운 기술은 이전과 비교할 수 없는 양과 질의 콘텐츠로 민주적 담론을 훼손할 수 있는 잠재력을 가지고 있다.
작가 소개
지은이 : 박재형
한국외국어대학교 불어교육학과 졸업 후 같은 대학원 정치학 석사, 박사를 취득했다. 서울시립대, 한국외대 등에 출강하던 중 미국 워싱턴 D.C.로 이주해 조지타운대학 등에서 연구를 계속했다. 현재 한국과 미국 정부 기관 등의 정책 분석 프로젝트를 수행하며 국내외 언론 매체에도 글을 쓰고 있다. 지은 책으로는 《AI는 중립적인가?》,《한국 정치와 헌법재판소》 등이 있다.