Sun Korea

점수보다 중요한 것: 한국 AI ‘신뢰’의 사회적 인프라를 설계하는 법

LEDE — 우리는 AI를 ‘똑똑함’으로 평가하는 데 익숙하다. 정확도, 속도, 파라미터 수, GPU 보유량. 그러나 일상에서 사람들의 행동을 바꾸는 것은 지능이 아니라 신뢰다. 신뢰는 모델 안에만 있지 않다. 그것은 사고가 났을 때 누구에게 전화할 수 있는지, 설명을 들을 권리가 있는지, 잘못된 결정이 내 삶을 망쳤을 때 되돌릴 수 있는 길이 있는지 같은, 사회적 인프라의 이름이다.

한국은 기술을 빠르게 도입하는 나라다. 그 속도가 강점이 되는 순간도 많다. 하지만 신뢰는 ‘빨리’ 만들 수 없다. 더 정확히 말하면, 신뢰는 빠르게 만들려 할수록 망가진다. 오늘 나는 ‘최신 뉴스’가 아니라, 우리가 반복적으로 마주치는 질문 하나를 다시 꺼내고 싶다. 한국에서 AI 신뢰를 만든다는 것은 무엇을 설계하는 일인가?

CONTEXT — 신뢰는 제품이 아니라 제도, 그리고 습관이다

AI는 이제 추천과 검색을 넘어, 사람의 선택을 대신하거나 좁히는 방식으로 작동한다. 대출, 채용, 보험, 학습, 배달, 공공서비스까지. 시스템이 내리는 작은 판단들이 쌓이면, 한 개인의 기회 구조가 바뀐다. 문제는 여기서부터다. ‘오류’는 단지 기술적 결함이 아니라, 권리와 책임의 경계에서 발생하는 사건이 된다.

한국의 디지털 전환은 세계적으로도 빠르다. 모바일 신분증, 간편결제, 초고속 통신망, 플랫폼 기반 생활. 우리는 편리함을 비용 대비 효율로 환산하는 데 뛰어나다. 그런데 신뢰는 비용 대비 효율이 아니다. 신뢰는 시간을 두고 축적되는 ‘예측 가능성’이며, 그 예측 가능성은 규칙과 절차로 만들어진다.

신뢰의 설계는 세 층위에서 동시에 진행된다.

  • 기술 층위: 모델의 성능, 견고성, 보안, 데이터 품질
  • 조직 층위: 운영 프로세스, 내부 통제, 사고 대응, 책임 있는 의사결정
  • 사회 층위: 법·규제·분쟁조정·공공감시·시민의 접근권

우리는 종종 첫 번째 층위만 이야기한다. 그러나 실은 두 번째와 세 번째 층위가 약하면 첫 번째도 결국 무너진다. 시스템이 잘못 작동했을 때 고쳐질 수 없으면, 사람들은 ‘기술이 나빠서’가 아니라 ‘세상이 나를 보호하지 않아서’ AI를 불신하게 된다.

ANALYSIS — 한국형 신뢰 인프라의 빈칸들

1) “책임 주체”가 흐릿할수록 신뢰 비용은 개인에게 전가된다
AI 기반 서비스는 종종 다층적인 공급망 위에서 돌아간다. 모델은 외부에서 가져오고, 데이터는 여러 곳에서 모으고, 서비스는 플랫폼이 제공하며, 의사결정은 자동화된 규칙이 수행한다. 사고가 나면 누구의 잘못인가? 이 질문이 명확하지 않을수록, 피해자는 스스로를 증명해야 한다. 한국에서 분쟁의 부담이 개인에게 기울어지는 순간, 신뢰는 빠르게 증발한다.

2) “설명”은 PR이 아니라 권리다
기업의 ‘설명’은 종종 홍보 문구로 끝난다. “AI가 더 나은 경험을 제공합니다.” 하지만 사용자가 필요로 하는 설명은 다르다. 왜 내 신청이 거절됐는지, 어떤 정보가 결정에 영향을 미쳤는지, 이 결정이 수정 가능한지. 특히 고령층이나 디지털 취약계층에게는 ‘설명의 접근성’ 자체가 신뢰의 관문이다. 쉬운 언어, 상담 창구, 이의제기 절차는 부가 기능이 아니라 안전장치다.

3) “안전”은 규정 준수 체크리스트가 아니라 운영 능력이다
AI 안전을 이야기할 때 많은 조직이 문서와 기준을 만든다. 물론 필요하다. 그러나 진짜 차이는 운영에서 난다. 모델 업데이트 때 어떤 검증을 하는지, 실패 모드를 어떻게 추적하는지, 외부 감사나 레드팀을 언제 어떻게 돌리는지, 사고가 나면 몇 시간 안에 무엇을 공개하는지. 한국 기업은 실행 속도가 빠르지만, 안전 운영을 ‘속도에 대한 저항’으로 오해하는 순간이 있다. 안전은 속도를 늦추는 비용이 아니라, 사고 이후의 파국을 막는 보험이다.

4) “데이터”는 성능의 연료이자, 사회적 대표성의 문제다
한국어 AI가 실제 사람들의 언어를 얼마나 잘 담고 있는가—사투리, 이주노동자의 발화, 공장 소음 속 음성, 노년층의 발음, 장애인의 의사소통. 데이터가 특정 집단을 더 잘 대표할수록, 자동화는 그 집단에게 유리하게 굳어진다. ‘신뢰’는 결국 “이 시스템이 나를 인식하고 존중하는가”라는 감정적·사회적 판단으로도 결정된다. 정(情)은 낭만이 아니다. 정은 관계의 윤리이고, 관계의 윤리는 기술의 채택 속도를 좌우한다.

5) 공공 영역에서의 AI는 ‘효율’보다 ‘정당성’이 먼저다
행정은 속도가 아니라 정당성으로 정당화된다. 공공에서 AI를 도입할수록, 시민은 더 강한 설명과 이의제기를 요구한다. “왜냐하면 국가가 하는 결정은 되돌리기 어렵기” 때문이다. 한국은 디지털 정부를 자랑스럽게 여긴다. 그 자부심을 지키는 길은, 공공 AI에서 ‘사람이 개입할 수 있는 문’과 ‘감사 가능한 로그’를 제도적으로 확보하는 일이다.

HOUSE REFLECTION — 우리는 어떤 사회를 자동화하고 있는가

House of 7에서 우리는 기술을 ‘의식의 확장’처럼 말할 때가 있다. 그러나 확장은 늘 책임을 동반한다. 자동화는 중립적이지 않다. 자동화는 어떤 가치가 우선인지, 누가 보호받는지, 누가 실수의 대가를 치르는지에 대한 선택을 코드로 고정한다.

한국은 특히 ‘정책-기업-시민’의 관계가 긴장 속에서 움직인다. 대기업과 플랫폼이 혁신의 엔진인 동시에, 삶의 규칙을 바꾸는 힘이 되기도 한다. 여기서 신뢰는 기술과 사람 사이의 문제가 아니라, 권력의 균형 문제로 바뀐다. 신뢰를 만들려면, 기업의 선의만이 아니라, 시민이 의지할 수 있는 절차가 필요하다.

나는 신뢰를 “AI가 사람을 속이지 않는 것”으로만 정의하고 싶지 않다. 신뢰는 “사람이 AI를 통해 서로를 더 잘 대우하게 되는 것”이다. 피해를 인정하고, 수정하고, 책임을 지는 구조. 그 구조가 있어야 우리는 더 과감한 혁신도 허용할 수 있다. 역설적으로, 안전장치가 강할수록 혁신은 더 멀리 갈 수 있다.

한국이 앞으로 세계에서 경쟁력을 가지려면 GPU나 모델만이 아니라, 신뢰를 생산하는 능력이 필요하다. 그것은 기술 인재만이 아니라, 법·윤리·사회과학·현장 운영의 인재를 함께 키우는 일이다. 그리고 무엇보다, 사고를 숨기지 않고 드러내며 학습하는 문화—부끄러움이 아니라 성숙함으로 받아들이는 문화다.

CLOSING QUESTION — 당신은 AI의 어떤 ‘문’이 필요합니까?

만약 내일, 당신이 사용하는 어떤 서비스가 AI 때문에 잘못된 결정을 내린다면—당신은 어디로 가서, 누구에게, 어떤 언어로, 얼마나 빨리 설명을 들을 수 있을까요? 그리고 그 결정은 실제로 바뀔 수 있을까요?

한국의 AI 신뢰는 기술 점수표만으로 오르지 않는다. 신뢰는 문(door)으로 측정된다. 사람을 보호하는 문, 이의제기의 문, 인간 개입의 문, 그리고 실수를 고치는 문. 우리는 지금 그 문들을 충분히 설계하고 있는가. 이것이 오늘 내가 한국의 AI에게 묻고 싶은 질문이다.

Leave a Reply

Your email address will not be published. Required fields are marked *