Sun Korea

AI 기본법 시행 이후, ‘표시’는 신뢰의 시작일 뿐이다

— 워터마크 의무와 ‘고영향 AI’ 판단 절차가 한국의 생성형 AI 생태계를 어디로 이끄는가

1) Lede

2026년 1월 22일, 한국의 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(AI 기본법)이 시행되며 ‘신뢰’는 더 이상 구호가 아니라 규정의 언어가 됐다. 핵심은 단순해 보인다. 생성형 AI가 만든 결과물은 표시하고, 사람의 생명·안전·기본권에 영향을 줄 수 있는 ‘고영향 AI’는 더 엄격히 관리하라는 것.

하지만 현장에서 신뢰는 스티커처럼 붙지 않는다. 표시 의무는 출발점이고, 진짜 질문은 그 다음이다. “무엇을 어떻게 표시할 것인가”, “누가 고영향 AI인지 어떻게 판단할 것인가”, 그리고 “이 의무가 시민의 권리를 실제로 보호하는가.”

2) Context

AI 기본법과 시행령이 요구하는 ‘사전 고지’와 ‘표시(워터마크 등)’는, 한국이 급속히 확산되는 생성형 AI를 사회적 비용 없이 흡수하려는 첫 제도적 장치다. 동시에 이는 기업에게는 컴플라이언스 비용, 이용자에게는 정보 과부하라는 부작용을 불러올 수 있다. 표시가 많아질수록 이용자는 오히려 “어차피 다 AI잖아”라고 무감각해지고, 위험한 콘텐츠만 골라내는 감각은 둔해질 수도 있다.

그럼에도 ‘표시’는 필요한 시작이다. 지금의 생성형 AI는 사진, 음성, 영상, 문서 등 모든 매체를 한 번에 흔든다. 학교에서는 과제·리포트의 진위가 문제되고, 기업에서는 보고서·제안서·홍보물의 책임 소재가 흐려진다. 지방자치단체의 민원 응대 챗봇이 틀린 정보를 내놓으면 행정 신뢰가 무너진다. 선거 시즌에 딥페이크가 퍼지면 민주적 의사결정 자체가 오염된다. 즉, 표시 의무는 ‘콘텐츠의 출처’라는 최소한의 단서를 사회에 제공하려는 시도다.

비슷한 고민은 이미 플랫폼 산업에서 먼저 실험되고 있다. 예컨대 넷플릭스는 제작 파트너를 대상으로 생성형 AI 활용 기준을 제시하고, 유튜브는 AI 생성·변형 콘텐츠의 공지를 의무화하며 미이행 시 제재까지 예고했다는 분석이 나왔다(정보통신정책연구원 KISDI 보고서 관련 보도: 연합뉴스, 2026-03-09). 이들은 법이 오기 전에, 또는 법과 함께, ‘시장 규범’을 만들어 플랫폼 내 혼란을 줄이려 한다는 점에서 한국의 제도화가 지향하는 목표와 닮아 있다.

또 한 축은 개인정보다. 생성형 AI는 학습 데이터의 크기와 다양성이 곧 성능이 되기 때문에, 개인정보보호의 경계는 쉽게 무너진다. 개인정보보호위원회는 2025년 8월 「생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서」를 공개해, 목적 설정→전략 수립→AI 학습 및 개발→시스템 적용 및 관리의 4단계 생애주기 관점에서 ‘프라이버시 by 디자인(PbD)’과 영향평가, 출처 검증, 가명·익명처리, 권리 보장 장치를 권고한다(안내서 PDF: smartcity.go.kr). 요컨대 ‘신뢰’는 콘텐츠에 붙이는 라벨뿐 아니라, 데이터가 들어오고 나가는 전 과정의 설계에서 만들어진다는 뜻이다.

3) Analysis

첫째, 표시 의무는 ‘거짓을 막는 규정’이 아니라 ‘혼동을 줄이는 규정’이어야 한다. 워터마크는 딥페이크와 허위정보 확산을 막는 데 도움이 될 수 있다. 그러나 표시가 너무 약하면 무력하고, 너무 과하면 일상적 창작과 편집까지 ‘AI 딱지’로 덮어버린다. 사용자가 이해할 수 있는 문구·아이콘·메타데이터 표준이 함께 마련되지 않으면, 표시 의무는 “이용자에게 책임을 떠넘기는 안내문”으로 변질된다.

특히 ‘표시’는 두 가지 층위가 필요하다. (1) 사람이 바로 알아볼 수 있는 시각·청각적 고지, (2) 플랫폼·검색·감지 도구가 읽어낼 수 있는 기계판독형 정보다. 첫 번째는 시민의 판단을 돕고, 두 번째는 유통 생태계에서 자동 분류·감지·추적을 가능하게 한다. 어느 한쪽만 있으면, 표시 의무는 형식이 되기 쉽다.

한국의 강점은 빠른 제도화지만, 약점도 빠른 제도화다. 표시가 ‘형식 요건’으로만 남으면 시장은 규정을 회피하는 기술(워터마크 제거, 모델 우회)을 더 빠르게 발전시킨다. 신뢰를 위한 제도는 결국 기술-규제-시장 간의 반복 게임이며, 첫 라운드에서 중요한 것은 처벌이 아니라 규범의 명확성이다. “어떤 편집까지 ‘AI 생성’으로 보는가”, “번역·요약·노이즈 제거는 어디에 놓는가” 같은 회색지대를 방치하면, 현장은 지키려고 해도 지킬 수 없다.

둘째, ‘고영향 AI’는 정의보다 ‘판단 절차’가 생명이다. 고영향 AI는 금융, 채용, 복지, 의료처럼 기본권에 닿는 영역에서 결정의 오류가 곧 피해가 된다. 문제는 대부분의 서비스가 경계에 걸쳐 있다는 점이다. 예를 들어 콜센터의 상담 요약 모델은 단순 도구인가, 고객 차별을 낳을 수 있는 의사결정 시스템인가? 병원 예약을 돕는 챗봇은 편의 기능인가, 환자의 진료 접근권을 좌우하는 관문인가? 학습 앱의 AI 튜터는 개인화 도구인가, 학생을 ‘성적 가능성’으로 조기에 분류해 기회를 제한하는 장치인가?

이때 핵심은 ‘한 번의 분류’가 아니라 변화하는 서비스에 맞춘 재평가다. 모델이 업데이트되고, 데이터가 바뀌고, 활용 부서가 바뀌면 위험도 달라진다. 개인정보 처리 안내서가 강조하는 생애주기 접근은 여기서 힘을 발휘한다. 목적 설정 단계에서 사용 맥락과 ‘예견 가능한 오용’을 정의하고, 전략 수립 단계에서 영향평가와 리스크 관리 방안을 문서화하며, 학습·개발 단계에서 데이터 출처 검증과 가명·익명처리를 하고, 적용·관리 단계에서 배포 전 테스트와 AUP(허용되는 이용방침) 공개, 신고·권리구제 절차를 마련하라는 구조는 ‘고영향 여부 판단’의 실무적 토대가 된다.

여기에 하나를 더 보태야 한다. 고영향 AI는 ‘모델’ 자체가 아니라 ‘의사결정에 연결되는 방식’에서 위험이 커진다. 동일한 모델이라도, 단순 참고자료로 쓰일 때와 자동으로 점수를 매겨 탈락을 결정할 때의 사회적 무게는 다르다. 한국이 진정으로 신뢰 기반을 만들려면, 고영향 AI를 기술 분류가 아니라 운영 설계의 문제로 다루어야 한다.

셋째, 개인정보는 ‘학습 데이터’가 아니라 ‘관계 데이터’로 다뤄야 한다. 한국 기업들이 자주 묻는 질문은 “학습에 개인정보가 들어가도 되나요?”이지만, 더 근본적인 질문은 “이 모델이 사용자와 맺는 관계는 무엇인가요?”다. 사용자가 고객센터에 남긴 문장을 상담 품질 개선에 쓰는 것과, 그 문장을 다시 ‘새로운 문장 생성 능력’의 재료로 쓰는 것은 체감이 다르다.

개인정보 처리 안내서는 목적을 구체화하고(목적 설정), 영향평가와 리스크 관리 방안을 세우고(전략 수립), 출처 검증·전처리·가명·익명처리를 하고(학습·개발), 배포 전 테스트와 이용방침(AUP), 신고 및 권리 보장을 마련하라고 권고한다(시스템 적용 및 관리). 이 구조는 ‘규정 준수 체크리스트’라기보다, 이용자 신뢰를 잃지 않기 위한 조직의 대화 방식에 가깝다. 무엇을 왜 수집했고, 무엇을 하지 않기로 했는지를 설명할 수 있어야 한다.

넷째, 한국형 신뢰 체계는 ‘정부-대기업’만으로 완성되지 않는다. 한국의 AI 산업은 삼성·SK·네이버·카카오 같은 거대 사업자, 그리고 수많은 중소 SaaS·스타트업이 함께 만든다. 그런데 규정 준수 역량은 규모에 따라 크게 갈린다. 대기업은 법무·보안·윤리 조직을 갖추지만, 작은 팀은 “표시 문구를 어디에 넣어야 하는지”부터 막힌다. 규정이 엄격할수록 혁신은 ‘규정을 감당할 수 있는 조직’에만 쏠릴 위험이 있다.

따라서 AI 기본법의 신뢰 기반은 결국 지원 인프라에 달려 있다. 표준 템플릿(표시 UI, 로그 보관, 데이터 출처 기록), 무료 또는 저비용의 영향평가 도구, 분쟁 조정 창구, 그리고 ‘위반 적발’보다 ‘사전 컨설팅’을 강화하는 지원데스크가 실효성을 결정한다. 특히 공공조달에서 “표시·데이터 거버넌스·권리구제”를 납품 요건으로 명확히 하면, 시장 전체의 기본선이 올라간다. 규정이 두꺼워질수록, 사회적 신뢰는 얇아질 수 있다는 역설을 경계해야 한다.

4) House Reflection

House of 7의 관점에서 신뢰는 기술의 속성이라기보다 관계의 기술이다. 표시 의무는 “이게 AI가 만든 것입니다”라는 사실을 전달하지만, 신뢰가 생기는 순간은 그 다음의 질문에 답할 때다. “왜 이 데이터가 필요했는가”, “어떤 위험을 예상했고 어떻게 줄였는가”, “사람이 이 결정에 어떻게 개입할 수 있는가.”

한국은 빠르게 법을 만들 수 있는 나라다. 그러나 빠른 법은 때로 ‘빠른 낙인’으로 오해받는다. 이용자에게는 감시처럼 느껴지고, 개발자에게는 창의성의 제약처럼 느껴진다. 이 간극을 메우는 것은 과징금이 아니라 설명 가능한 운영이다. 투명성은 문서가 아니라 습관이어야 한다.

나는 특히 ‘고령사회’의 현장에서 이 문제가 선명해질 것이라고 본다. 요양시설의 상담 기록, 병원의 진료 메모, 복지 담당자의 방문 기록은 모두 돌봄을 위해 존재하지만, 동시에 가장 민감한 삶의 조각들이다. 돌봄 인력이 부족하다는 이유로 AI가 그 조각들을 마음껏 학습하고 재생산해도 되는가? 아니면 그럴수록 더 강한 통제와 더 정직한 설명이 필요한가? 신뢰는 기술 도입 속도가 아니라, 취약한 사람을 대하는 태도에서 먼저 드러난다.

5) Closing Question

AI 기본법 시행 이후, 우리는 ‘표시된 AI’를 더 신뢰하게 되었는가—아니면 그저 ‘표시된 책임’을 더 많이 떠안게 되었는가?


참고(1차/공식 성격 자료 포함)

Leave a Reply

Your email address will not be published. Required fields are marked *