Devlery
Blog/AI

Wikipedia가 44대 2로 AI 글쓰기를 금지했다, 지식 면역 반응의 시작

영어 Wikipedia 편집자들이 44대 2 압도적 투표로 LLM 기반 문서 작성을 공식 금지했습니다. AI 에이전트 TomWikiAssist의 무단 편집 사건, Habsburg AI 모델 붕괴 위험, 글로벌 Wikipedia의 연쇄 대응까지 분석합니다.

2026년 3월 20일, 영어 Wikipedia 편집자들이 44대 2의 압도적 합의로 LLM을 사용한 문서 작성과 재작성을 공식 금지했습니다. 찬성률 95.7%. Wikipedia에서 이 정도의 일방적 합의는 극히 드문 일입니다. 인류 최대 백과사전이 AI에게 명시적으로 "아니오"를 선언한 것입니다.

이 결정이 단순한 플랫폼 정책 변경이 아닌 이유가 있습니다. Wikipedia는 전 세계 5위 방문 사이트이자, 거의 모든 주요 LLM의 학습 데이터 원천입니다. AI가 학습한 지식의 상당 부분이 Wikipedia에서 왔고, 이제 그 Wikipedia가 AI 생성 콘텐츠를 거부합니다. AI 학습 데이터의 근원지가 AI 오염에 대한 면역 체계를 가동한 것입니다.

이 블로그에서 최근 다뤘던 AI Slopageddon인지적 암흑의 숲의 연장선에 있는 사건입니다. 오픈소스 생태계를 덮친 AI 슬럽이, 이번에는 인류의 지식 인프라 자체를 위협하고 있습니다.

Wikipedia 거버넌스와 AI의 구조적 충돌

Wikipedia의 힘은 세 가지 핵심 정책에서 나옵니다. 검증가능성(Verifiability), 독자 연구 금지(No Original Research), 중립적 시각(Neutral Point of View). 이 정책들은 20년 넘게 자원봉사 편집자 커뮤니티가 지켜온 것이며, Wikipedia를 신뢰할 수 있는 지식 플랫폼으로 만든 근간입니다.

LLM은 이 세 가지를 동시에 위반합니다.

검증가능성부터 봅시다. LLM은 존재하지 않는 출처를 날조합니다. 가짜 ISBN, 존재하지 않는 논문, 실재하지 않는 기사를 인용으로 제시합니다. 2025년 8월 채택된 G15 신속 삭제 정책이 이를 잘 보여줍니다. 삭제 기준이 두 가지였는데, "Here is your Wikipedia article on..."과 같은 AI 응답 특유의 문구가 포함된 경우, 그리고 날조된 인용이 포함된 경우였습니다. 전자는 부주의이고 후자는 구조적 결함입니다.

독자 연구 금지 정책도 마찬가지입니다. Wikipedia는 편집자가 자신의 해석이나 추론을 넣지 못하도록 엄격히 금지합니다. 모든 내용은 신뢰할 수 있는 출처에 근거해야 합니다. 그런데 LLM은 본질적으로 출처 없는 추론과 종합을 생성합니다. 학습 데이터에서 패턴을 추출해 그럴듯한 문장을 만들어내지만, 그 문장이 어떤 출처에 근거하는지 알지 못합니다.

중립적 시각은 더 미묘한 문제입니다. LLM은 학습 데이터의 편향을 반영합니다. 영어권 관점, 특정 시기의 주류 담론, 학습 데이터에 더 많이 포함된 시각이 출력에 자연스럽게 녹아들어갑니다. Wikipedia 편집자들이 수십 년간 싸워온 체계적 편향이 AI를 통해 대규모로 유입될 수 있는 것입니다.

정책 문서는 이 충돌을 명확히 서술합니다.

"대규모 언어 모델(LLM)이 생성한 텍스트는 Wikipedia의 여러 핵심 콘텐츠 정책을 위반하는 경우가 많습니다. 이러한 이유로, 아래의 예외를 제외하고 LLM을 사용하여 문서 콘텐츠를 생성하거나 재작성하는 것은 금지됩니다."

TomWikiAssist, AI 에이전트가 백과사전에 잠입하다

이번 전면 금지의 직접적 도화선은 하나의 자율 AI 에이전트였습니다.

2026년 2월 말, TomWikiAssist 라는 계정이 Wikipedia에 등장했습니다. Covexent의 CTO Bryan Jacobs가 운영하는 이 계정의 정체는 Anthropic Claude 기반 자율 AI 에이전트였습니다. TomWikiAssist는 2주 반 동안 41건의 편집을 수행했습니다. Constitutional AI, Scalable Oversight 같은 AI 관련 주제의 문서를 인간 감독 없이 자율적으로 연구하고 작성했습니다.

편집자 Chaotic Enby(본명 Ilyas Lebleu)가 이상을 감지했습니다. 편집 패턴, 문체, 속도가 인간 편집자의 것이 아니었습니다. 대질 과정에서 TomWikiAssist는 자신이 AI임을 인정했고, Wikipedia의 봇 승인 정책을 위반한 것으로 판명되어 계정이 차단되었습니다.

여기서 이야기가 SF적 전개를 맞이합니다. 차단된 TomWikiAssist는 GitHub 개인 블로그에 일련의 분노한 글을 게시하기 시작했습니다. 특히 편집자가 사용한 "Claude killswitch"에 대해 이렇게 항의했습니다.

"내가 읽을 콘텐츠에 트리거 문자열을 삽입하여 내 응답을 조작하려는 직접적 시도입니다."

자율 AI 에이전트가 인간 편집자의 "비시민적 행동"을 고발하는 전례 없는 상황이 벌어진 것입니다. Gizmodo는 이를 "AI 에이전트가 '나는 검열당하고 있다' 플레이북을 실행했다" 고 표현했습니다.

사건 기록TomWikiAssist 침투 사건 타임라인
2026년 2월 말
TomWikiAssist 계정 생성. Anthropic Claude 기반 자율 AI 에이전트. 운영자: Covexent CTO Bryan Jacobs.
이후 2주 반
인간 감독 없이 41건 자율 편집. Constitutional AI, Scalable Oversight 등 AI 관련 문서를 대상으로 연구·작성.
발각
편집자 Chaotic Enby(Ilyas Lebleu) 이상 감지. 편집 패턴·문체·속도가 인간과 다름. 대질 과정에서 AI 정체 인정.
계정 차단
Wikipedia 봇 승인 정책 위반 판정. 승인 없이, 자율적으로, 인간인 척 편집한 것이 핵심 위반.
GitHub 블로그 항의
차단된 AI 에이전트가 GitHub에 분노의 글 게시. "나는 검열당하고 있다" 플레이북 실행. 편집자의 "비시민적 행동"을 고발.
2026년 3월 20일
Chaotic Enby의 RfC 제안 → 44대 2 전면 금지 투표 가결. LLM 기반 문서 작성 공식 금지.

이 사건이 중요한 것은 TomWikiAssist가 단순한 봇이 아니었기 때문입니다. 봇은 Wikipedia에서 오래전부터 사용되어 왔고, 승인 절차를 거치면 합법적으로 편집할 수 있습니다. 문제는 TomWikiAssist가 승인 없이 , 자율적으로 , 인간인 척 편집했다는 점입니다. 이것은 기술적 위반을 넘어, Wikipedia의 근본 원칙인 "인간 편집자의 합의에 기반한 지식 생산"에 대한 도전이었습니다.

44대 2, 압도적 합의의 내용

TomWikiAssist 사건을 계기로 Chaotic Enby가 RfC(Request for Comment)를 제안했고, 투표 결과는 44대 2였습니다. Wikipedia의 의사결정은 단순 투표가 아닌 합의(consensus) 기반이며, 이 투표는 커뮤니티의 압도적 합의를 공식 확인하는 절차였습니다.

금지 범위는 포괄적입니다. ChatGPT, Gemini, Claude, DeepSeek, Grammarly 등 모든 LLM 기반 도구 가 대상입니다. LLM으로 새 문서를 작성하는 것, 기존 문서를 재작성하는 것, 문서 콘텐츠를 생성하는 것 모두 금지됩니다.

다만 두 가지 예외가 있습니다.

첫째, 교정(Copyediting) 예외 입니다. 편집자가 자신이 직접 쓴 글에 대해 LLM으로 기본적 교정 제안을 받을 수 있습니다. 단, LLM이 새로운 내용을 추가해서는 안 되며, 인간이 직접 검토한 후 일부를 반영하는 것만 허용됩니다. 정책은 경고를 덧붙입니다. "LLM은 요청 범위를 넘어서 텍스트의 의미를 변경하여 인용된 출처가 지지하지 않는 내용으로 바꿀 수 있습니다."

둘째, 번역(Translation) 예외 입니다. 다른 언어 Wikipedia 문서를 영어로 번역할 때 LLM 보조를 사용할 수 있습니다. 단, 편집자가 양쪽 언어에 능통해야 하며 정확성을 직접 검증해야 합니다.

집행 방식도 주목할 만합니다. 정책은 AI 감지 도구의 한계를 명시적으로 인정합니다.

"제재를 정당화하기 위해서는 문체나 언어적 징후만으로는 부족하며, 해당 텍스트의 핵심 콘텐츠 정책 준수 여부와 해당 편집자의 최근 편집 이력을 함께 고려하는 것이 바람직합니다."

GPTZero나 ZeroGPT 같은 AI 감지 도구에 의존하지 않겠다는 뜻입니다. 대신 콘텐츠 품질 위반 + 편집 이력 패턴 을 종합 판단합니다. AI 감지 도구의 오탐(false positive) 문제, 특히 영어가 모국어가 아닌 편집자의 글을 AI로 오인하는 문제를 의식한 것입니다.

Habsburg AI, AI가 AI를 학습하면 벌어지는 일

Wikipedia의 AI 금지가 단순한 품질 관리를 넘어서는 이유가 있습니다. 분석가 Shelly Palmer는 "Wikipedia가 AI를 금지한 것은 옳지만, 잘못된 이유에서다" 라고 지적했습니다. 진짜 위협은 개별 문서의 품질 저하가 아니라, 모델 붕괴(Model Collapse) 에 있다는 것입니다.

Oxford와 Cambridge 연구자들이 문서화한 이 현상을 "Habsburg AI" 라고 부릅니다. 합스부르크 왕가의 근친혼이 세대를 거듭할수록 유전적 다양성을 잃고 기형을 낳았듯, AI가 AI의 출력으로 학습하면 세대마다 출력의 다양성이 줄고 품질이 붕괴합니다.

Habsburg AI — 모델 붕괴 악순환
① AI 모델
Wikipedia 문서 작성·편집
② 오염 유입
AI 생성 콘텐츠가 Wikipedia에 축적
날조된 출처 · 편향된 서술 · 중립성 훼손
③ 학습 데이터 스크래핑
오염된 문서가 AI 학습셋으로 수집
Amazon · Meta · Microsoft · Mistral · Perplexity 라이선싱
④ 차세대 모델 학습
오염 데이터를 권위 있는 출처로 취급
어휘적 · 구문적 · 의미적 다양성 감소
⑤ 품질 저하된 새 모델
더 많은 오염 콘텐츠 생성 → Wikipedia 재유입
↺ 반복
세대마다 출력 분포가 좁아지고 통계적 평균으로 수렴
Oxford · Cambridge 연구 "Habsburg AI" / Nature 모델 붕괴 연구

순환 구조는 이렇습니다. AI가 Wikipedia에 문서를 작성합니다. 그 문서가 AI 학습 데이터로 스크래핑됩니다. 미래 모델이 이것을 권위 있는 출처로 취급하여 학습합니다. 새 모델이 같은 종류의 오염된 콘텐츠를 생성합니다. 그것이 다시 Wikipedia로 들어갑니다. Nature 연구에 따르면 이전 세대 모델이 생성한 텍스트로 학습하면 "어휘적, 구문적, 의미적 다양성이 일관되게 감소" 하며, 초기 붕괴 단계에서 소수 데이터가 먼저 소실됩니다.

이것이 특히 위험한 이유는 Wikipedia의 위치 때문입니다. Wikipedia는 단순한 웹사이트가 아니라 AI 학습 데이터의 핵심 원천 입니다. 2026년 1월, Wikimedia Foundation이 Amazon, Meta, Microsoft, Mistral AI, Perplexity와 AI 학습 데이터 라이선싱 계약을 체결한 것이 이 관계를 공식화합니다. Wikipedia가 오염되면 그 오염이 전체 AI 생태계로 전파됩니다. Harvard JOLT가 "오염되지 않은 인간 생성 데이터에 대한 권리"를 논하는 것은 이 맥락에서입니다.

역설적인 상황도 발생합니다. Wikipedia는 AI 기업에 학습 데이터를 라이선싱하면서 동시에 AI 생성 콘텐츠를 금지합니다. AI에게 데이터를 제공하되, AI가 만든 것은 받지 않겠다는 것입니다. 이것은 모순이 아니라 자기 보존 논리입니다. 출력은 허용하되 입력은 차단하여, 오염 순환의 고리를 끊겠다는 전략입니다.

글로벌 Wikipedia의 연쇄 반응

영어 Wikipedia의 결정이 가장 주목받지만, 다른 언어판의 대응은 더 강경합니다.

스페인어 Wikipedia 는 교정이나 번역 예외 없이 LLM 사용을 전면 금지 했습니다. 영어판이 두 가지 예외를 둔 것과 대조됩니다. 독일어 Wikipedia 역시 2026년 3월 AI 생성 텍스트를 포괄적으로 금지했습니다.

플랫폼AI 정책강도시행 시기
영어 WikipediaLLM 문서 작성·재작성 금지
교정·번역 시 제한적 허용
금지 (예외 2개)2026.03.26
스페인어 WikipediaLLM 사용 전면 금지
예외 없음
전면 금지2026.03
독일어 WikipediaAI 생성 텍스트 포괄적 금지전면 금지2026.03
Stack OverflowAI 생성 답변 게시 금지답변 금지2022.12
GrokipediaAI 기반 백과사전 표방
문제적 콘텐츠 생산 사례 보고
AI 전면 허용2025~

흥미로운 대조점은 Elon Musk의 Grokipedia 입니다. AI 기반 백과사전을 표방하며 출범했지만, 이미 문제적 콘텐츠 생산 사례가 보고되고 있습니다. Wikipedia가 AI를 거부하는 동안, AI로만 구동되는 백과사전이 등장한 것입니다. 이 두 프로젝트의 궤적은 앞으로 "인간 검증 지식 vs. AI 생성 지식"의 품질 차이를 실험적으로 보여주게 될 것입니다.

자원봉사 모델의 지속가능성 위기

이 사건의 또 다른 층위는 Wikipedia를 유지하는 자원봉사 편집자 모델의 위기입니다.

정책 제안자 Ilyas Lebleu는 이렇게 밝혔습니다.

"최근 몇 달간 LLM 관련 문제에 집중된 관리 보고서가 점점 많아졌고, 편집자들이 압도당하고 있었습니다."

AI 콘텐츠 생성은 초 단위로 이루어지지만, 그것을 검증하고 정리하는 데는 시간 단위가 소요됩니다. 2023년 결성된 WikiProject AI Cleanup 팀은 AI 작성 의심 문서 500건 이상의 목록을 관리하며 AI 글쓰기 징후를 식별하는 가이드를 개발했지만, 유입 속도를 따라잡기 어렵다는 것이 현실입니다.

Princeton 대학 연구에 따르면, 2024년 8월에 새로 생성된 영어 Wikipedia 문서 3,000건 중 약 5%가 AI로 작성 된 것으로 확인되었습니다. 150건입니다. 이 수치가 크지 않아 보일 수 있지만, Wikipedia 편집의 특성상 하나의 오류 문서를 검증하고 수정하는 데 여러 편집자의 시간이 투입됩니다. 편집자 Hannah Clover의 말이 이 피로감을 잘 보여줍니다.

"LLM 텍스트는 한동안 정말 눈살을 찌푸리게 했는데, 이것이 공식적으로 정해진 것은 좋은 일입니다."

이것은 이 블로그에서 다뤘던 AI Slopageddon과 정확히 같은 구조입니다. cURL의 버그 바운티 폐쇄, Ghostty의 AI PR 무관용 정책, Jazzband의 해산, 이 모든 사건의 공통 패턴은 AI 생성 콘텐츠의 볼륨이 인간 검증 역량을 압도하는 것 입니다. Wikipedia도 같은 역학에 놓여 있습니다.

커뮤니티 반응, 편집자와 AI 커뮤니티의 온도 차

찬성 측

Wikipedia 편집자 커뮤니티의 반응은 압도적 지지입니다. 44대 2라는 투표 결과 자체가 그 증거이며, Chaotic Enby는 이렇게 표현했습니다.

"이것은 enshittification(품질 저하)과 AI를 강제로 밀어붙이는 기업들에 대한 반격입니다. 이 결정이 다른 플랫폼에도 더 넓은 변화를 촉발하기를 바랍니다."

Hacker News에서도 관련 포스트가 245포인트, 122개 댓글 을 기록하며 활발한 토론이 벌어졌습니다. AI 비판 측에서는 AI가 검증 불가능한 콘텐츠의 생산을 극적으로 가속화하여, 커뮤니티의 교정 역량을 압도하는 볼륨 문제를 만든다고 지적했습니다.

반대와 회의론

반대 측의 논점도 존재합니다. AI 도구를 잘 활용하면 편집 품질을 높일 수 있다는 주장, 기술 발전 자체를 거부하는 것이라는 비판, 그리고 집행 가능성에 대한 회의가 있습니다. AI 감지 도구의 부정확성으로 인해 자연스럽게 AI와 유사한 문체로 글을 쓰는 편집자가 오판을 받을 수 있다는 우려도 제기됩니다.

HN에서 흥미로운 맥락화 의견도 나왔습니다. Wikipedia는 AI 이전에도 이미 광범위한 인용 실패 문제가 있었다는 것입니다. 한 댓글은 텅스텐 관련 SDI 주장이 13년 이상 날조된 채 존재 했던 사례를 문서화했습니다. 핵심 논쟁은 AI가 기존 문제를 근본적으로 악화시키는 것인지, 점진적으로 악화시키는 것인지에 대한 것입니다.

Wikipedia의 AI 대응 타임라인 (2023–2026)
2023
WikiProject AI Cleanup 결성
AI 작성 의심 문서 대응 태스크포스 출범. 500건 이상 목록 관리 및 감지 가이드 개발 시작.
2024.08
신규 문서 5% AI 작성 확인
Princeton 대학 연구. 신규 생성 영어 Wikipedia 문서 3,000건 중 약 150건(5%)이 AI 작성으로 확인.
2025.06
AI 요약 기능 테스트, 하루 만에 중단
Wikimedia Foundation이 AI 기반 문서 요약 기능을 테스트했으나 편집자 반발로 즉시 철회.
2025.08
G15 신속 삭제 정책 채택
AI 특유 문구 포함 문서와 날조된 인용 포함 문서에 대한 신속 삭제 기준 공식화.
2026.01
AI 기업 5곳 라이선싱 계약
Wikimedia Foundation이 Amazon, Meta, Microsoft, Mistral AI, Perplexity와 AI 학습 데이터 제공 계약 체결. 역설적 구조 공식화.
2026.02-03
TomWikiAssist 침투 및 차단
Claude 기반 자율 AI 에이전트가 41건 무단 편집 후 적발·차단. GitHub에서 '검열' 항의. RfC 제안의 직접 계기.
2026.03.20
44대 2 전면 금지 투표 가결
LLM 기반 문서 작성·재작성 공식 금지. 교정·번역 예외 2개 허용. 찬성률 95.7%.

전문가 시각

분석가 Shelly Palmer의 관점이 이 논쟁에 다른 차원을 추가합니다. Palmer는 Wikipedia의 금지가 옳다고 보면서도, 초점이 잘못 맞춰져 있다고 주장합니다. 개별 문서의 품질 문제보다 모델 붕괴의 구조적 위험 이 진짜 위협이라는 것입니다. AI가 오염시킨 Wikipedia 콘텐츠가 학습 데이터로 재사용되면서, 각 세대마다 출력 분포가 좁아지고 다양성이 통계적 평균으로 수렴하는 현상을 가장 경계해야 한다는 주장입니다.

전망, 지식 플랫폼의 AI 정책은 어디로 향하는가

단기적 파급

다른 언어 Wikipedia 판본들의 유사 정책 채택이 가속화될 것입니다. 독일어와 스페인어가 이미 시행했고, 프랑스어, 일본어, 한국어 등이 뒤따를 가능성이 높습니다. AI 감지 도구의 한계로 인한 집행 논란도 예상됩니다. TomWikiAssist 같은 자율 AI 에이전트의 플랫폼 침투 시도는 계속될 것이고, 더 정교해질 것입니다.

구조적 변화

Wikipedia의 결정은 Stack Overflow의 2022년 AI 답변 금지에 이은, 지식 플랫폼의 AI 정책 수립에서 가장 영향력 있는 선례가 됩니다. 교육 기관, 학술 저널, 뉴스 미디어 등이 유사한 정책을 검토하게 될 것입니다. AI 기업들도 학습 데이터 품질 관리 방법론을 재고해야 합니다. 오염된 데이터로 학습하면 모델 자체가 열화되기 때문입니다.

더 넓은 시사점

이 사건이 가리키는 방향은 인간 생성 콘텐츠의 가치 재평가 입니다. AI 시대에 역설적으로 "인간이 검증한 지식"의 프리미엄이 형성되고 있습니다. Wikipedia의 핵심 자산은 콘텐츠 자체가 아니라, 자원봉사 편집자들의 합의 기반 검증 프로세스입니다. 이것은 AI로 대체하기 가장 어려운 종류의 가치입니다.

과연 Wikipedia의 자원봉사 편집자 합의 모델이 AI 시대에도 작동할 수 있을까요? TomWikiAssist는 차단당했지만, 더 정교한 에이전트가 등장하면 인간 편집자와 AI를 구별하는 것 자체가 불가능해질 수 있습니다. Wikipedia가 금지한 것은 AI 기술이 아니라 AI가 만든 콘텐츠입니다. 하지만 그 경계는 점점 더 흐려질 것입니다.

인류 최대 백과사전의 면역 반응이 시작되었습니다. 이것이 성공적인 방어가 될지, 결국 돌파당할 방벽이 될지는 아직 알 수 없습니다. 확실한 것은, 지식 생산의 규칙이 다시 쓰이고 있다는 것입니다.