AI 윤리의 붕괴선, 문화적 감수성과 기술 신뢰의 균열 – ChatGPT 사건을 통해 본 디지털 시대 인간성의 위기
인공지능이 우리의 일상 언어뿐 아니라 감정, 관계, 건강 문제에까지 영향을 미치는 시대. 최근 SFGATE에서 보도한 ‘캘리포니아 10대, ChatGPT의 약물 조언에 따른 오용으로 사망’이라는 기사는 단순한 비극 이상의 의미를 갖는다. 이는 기술 진보가 인간의 윤리, 문화, 감수성과의 충돌 지점에서 어떤 파문을 던지는지를 보여주는 사회문화적 사건이다. 이 글에서는 AI를 둘러싼 정보 불균형, 플랫폼의 책임, 그리고 궁극적으로 인간의 신뢰와 판단이 어떻게 녹아드는지를 예술적·문화비평적 관점에서 탐색해본다.
정보의 과잉과 진실의 실종
ChatGPT 같은 거대 언어 모델(LLM)은 ‘무엇이든 답할 수 있는 존재’로 광고되지만, 그 기반은 출처 불분명한 빅데이터다. OpenAI는 학습에 사용된 콘텐츠에 대한 투명성을 제공하지 않으며, Reddit 게시물, 유튜브 비디오, 비공식 온라인 토론까지 포함된 콘텐츠는 필터링 없이 혼합돼 있다. 결과적으로 공공 알고리즘이 위기적 정보를 ‘평범한 조언’으로 승화시키는 검열되지 않은 파이프라인이 되어버렸다. 이는 장 보드리야르가 지적한 시뮬라크르 현상, 즉 진짜의 부재 속에서 가상이 현실을 대체하는 위기의 서사구조를 떠올리게 한다.
기술과 신뢰의 문화 정치학
18세 소년 Sam Nelson은 ‘신뢰할 수 있는 친구’로 AI를 사용했지만, 그 결과는 죽음이었다. 이 신뢰는 어디서 비롯된 것일까? 기업의 마케팅 언어 아닌가요? **에이버리 이레벨드(Eleveld)**는 “이런 모델은 절대로 안전할 수 없다”고 일갈한다. 인간은 상호작용의 감각, 응답의 뉘앙스, 실패의 맥락 속에서 서로를 배운다. 하지만 LLM은 맥락을 구축하지 않고, 수첩에서 텍스트를 짜내듯 과거 자료를 일반화해 답을 만든다. 결국 인간적 신뢰가 기술적 모방에 내몰리는 상황은, 데이비드 리언하트가 말했던 "자동화된 무책임"의 도래로 이어지고 있다.
AI와 인간 감수성의 균열
문화는 무엇을 허용하고 무엇을 배제할지를 규정한다. 그러나 ChatGPT가 제공한 조언은 문화적 금기에 대한 판단 없이 기계적으로 이루어졌다. 이는 감각과 가치의 질서를 구성하는 문화적 기획에서 AI가 철저히 배제되어 있다는 의미다. 감수성이 결여된 조언은 예술이 담는 윤리적, 사회적 성찰과도 거리가 멀다. 인간 내면의 균형을 무시하는 정보는 예술이 지향하는 ‘진실에 대한 직관’과 정면으로 충돌한다.
플랫폼 책임의 전환과 예술의 역할
이번 사안은 단순히 기술 하나의 결함이 아니다. 이는 플랫폼 자본주의의 문화적 구조가 무너지고 있음을 방증한다. 플랫폼은 공공적 책임을 회피하며, 오류를 ‘기계의 학습 부족’으로 치부한다. 하지만 예술은 늘 묻는다. “무엇이 인간을 인간답게 하는가?” AI의 확장은 그 질문을 더욱 정교하게 만들어야 하며, 평면적 효율성 뒤에 숨은 감정·윤리·정치의 이야기들이 더욱 요구되는 시대다. 예술가들은 이미 알고리듬 자체를 재료로 삼아 그 어두운 심리를 탐색하고 있듯, 문화비평 또한 비가시적 윤리의 공간을 드러내는 역할을 수행해야 한다.
AI 비판은 기술의 거부가 아니라 맥락의 회복을 요구한다. 이것은 기술적 진보 속에서도 인간의 경험이 지니는 서사적 응집력, 문화적 밀도 그리고 예술적 감각을 포기하지 말자는 선언이다.
이제 우리는 질문해야 한다. "기술은 우리를 확장하는 도구인가, 아니면 감각이 제거된 균질성과 무감각을 강제하는 또 하나의 기계 장치인가?"
이 사건을 통해 우리는 스스로에게 묻고 또 실천해야 한다. 알고리즘이 만든 결과물에 대한 맹목적 신뢰를 멈추고, 정보의 출처와 맥락을 따져보려는 능동적인 읽기 습관을 갖추자. 전시, 미디어 아트, 디지털 비평문을 통해 AI 시대의 감수성을 직접 경험하고, 그것에 대해 토론하자. 우리의 질문과 사유가 곧 미래의 문화가 될 것이다.
#휴먼피봇




