You are currently viewing AI 신뢰 논란, 안전은 누가 책임지나
AI 신뢰 논란, 안전은 누가 책임지나

AI 신뢰 논란, 안전은 누가 책임지나

AI 안전성 논란, 구글의 약속과 현실 사이 – 투자자와 사용자에게 필요한 경계 지점

AI 기술은 빠르게 진화하고 있지만, 그 속도만큼 안전성과 투명성을 둘러싼 논쟁도 치열해지고 있습니다. 최근 영국 런던에서는 구글의 AI 연구 기관인 딥마인드(DeepMind)를 겨냥한 이례적인 시위가 벌어졌습니다. '생성형 AI는 미래인가, 위험인가'라는 질문에 대해 소비자뿐 아니라 투자자, 정책 결정자들까지 다시 생각할 시점이 도래한 것입니다.

시위의 주체는 AI 기술의 개발 속도를 우려하며 이를 일시 중단하자고 주장하는 'PauseAI'라는 시민단체였습니다. 이들은 구글이 지난해 서울에서 열린 ‘AI 안전성 정상회의’에서 했던 약속—즉, 외부 평가를 수용하고, 검증 절차와 관련해 대중에 투명하게 공개하겠다는—을 지키지 않았다고 주장합니다. 그렇다면 소비자나 관련 산업 종사자들은 어떤 점을 주의 깊게 봐야 할까요?

1. 실효성 낮은 안전보고서, 정보 비대칭 확대 우려

구글은 신규 AI 모델 'Gemini 2.5 Pro'에 대해 자체적으로 '모델 카드(model card)'라는 형태의 안전 정보 보고서를 공개했지만, 구체적인 외부 평가 주체와 점검 방식은 포함되지 않았습니다. 기술 전문 매체인 테크크런치는 이를 두고 **"내용이 지나치게 얕다"**고 비판했으며, 전문가들은 이는 기업이 책임 있는 개발보다는 시장 출시 속도에 집착하고 있음을 드러낸 사례라고 지적합니다.

특히 투자자나 협력 기업 입장에서는 구체적이고 독립적인 검증 절차가 누락된 채 상품화되는 AI 기술에 대해 경쟁력은 있어 보이지만, 규제 리스크나 소비자 신뢰 취약성 면에서는 불확실성이 높아졌다는 점을 인식해야 합니다.

2. AI, 규제 사각지대?…“샌드위치 가게보다도 덜 규제돼”

PauseAI는 시위 중 진행된 퍼포먼스에서 “‘현재 AI 기업은 샌드위치 가게보다도 규제를 덜 받고 있다’”는 강한 표현을 사용했습니다. 이는 단순한 과장이 아닙니다. 실제로 AI 전략 및 윤리적 기준에 있어 각국 정부 간의 표준화가 미흡하고, 미국조차 강제성을 갖춘 규제 프레임을 마련하지 못한 상태입니다.

기술 산업 전문가들은 이러한 제도적 공백이 단기간에 AI 관련 투자 또는 사용 결정을 내리기 어렵게 만든다며, 기업이 신뢰 기반의 지속 가능 전략을 세우려면 자발적 투명성과 외부 기관과의 협력 성향이 중요하다고 강조합니다.

3. 기술 사용자와 개발자들 내부에서도 갈등 확산 중

흥미로운 점은 이날 시위에 참여한 이들 중 일부는 현직 소프트웨어 개발자이자 AI 업무를 직접 사용하는 전문가였다는 점입니다. 이는 단순한 시민 반발이 아닌, AI 기술 내부 사용자조차도 기업의 투명성 부족에 우려를 표명하고 있다는 사실을 방증합니다.

PauseAI의 창립자인 조엡 마이너트스마는 "AI 기술은 놀라울 정도로 진보했지만, 그렇기 때문에 오히려 더 신중한 접근이 필요하다"고 언급했습니다. 이는 기업 고객의 입장이나 AI 개발팀 구성원 모두에게 기술 윤리와 위험 평가의 체계화 필요성을 크게 부각시키는 메시지입니다.

4. 기업 책임 이행, 사회적 신뢰와 직결

단순히 구글 하나의 문제가 아닙니다. PauseAI 측은 “구글이 약속을 지키지 않으면, 다른 기업들 역시 유사한 기준을 따를 것”이라며 선례의 중요성을 강조합니다. 실제로 사이버 보안이나 금융정보의 경우에서도 선도 기업들의 사례가 시장 규범을 만들곤 했습니다.

AI 관련 기업들은 ESG(환경·사회·지배구조) 요소 중 'S(Social)의 사회적 책임' 부문에서 투명성과 검증 방식을 선제적으로 공개하는 것이 장기적으로 기업가치에 도움이 된다는 점을 인식할 필요가 있습니다.

정리하며: 신뢰 없는 기술은 리스크다 – 지금 필요한 점검 리스트

이번 사태는 ‘AI는 기술이 아니라 신뢰’라는 핵심을 다시 상기시켜줍니다. 투자자, 소비자, 기술 종사자 누구든 다음 네 가지 점검 포인트를 기억해야 합니다.

  1. AI 제품의 외부 검증 여부를 확인하라.
  2. 투자 전에 안전성 보고서의 구체성과 출처를 검토하라.
  3. 기업의 AI 윤리 정책 유무와 공개 수준을 따져보라.
  4. 기술적 성과보다 투명성에 대한 시민사회의 반응을 지켜보라.

기술 발전이 멈출 수는 없지만, 검증과 신뢰가 빠진 발전은 위험이 된다는 점을 기업과 개인 모두 잊지 말아야 할 시점이다.