AI Slopageddon, 오픈소스 메인테이너들이 AI에게 DDoS 당하고 있다
cURL이 버그 바운티를 폐쇄하고, Ghostty가 AI PR을 금지하고, Jazzband가 10년 만에 문을 닫았습니다. AI 생성 저품질 코드가 오픈소스 메인테이너의 주의력을 고갈시키는 구조적 위기, AI Slopageddon의 실체를 분석합니다.
cURL이 6년간 운영한 버그 바운티 프로그램을 폐쇄했습니다. Ghostty가 AI로 생성된 PR에 무관용 정책을 선언했습니다. tldraw가 외부 기여를 전면 차단했습니다. 10년간 Python 오픈소스 생태계를 지탱하던 Jazzband가 문을 닫았습니다. 학술 분야에서는 ICML 2026이 워터마크 시스템으로 497건의 AI 생성 피어리뷰를 적발해 논문을 일괄 거부했습니다.
개별 사건이 아닙니다. RedMonk은 이 현상에 "AI Slopageddon" 이라는 이름을 붙였고, GitHub은 2026년 오픈소스 보고서에서 이를 "인간 주의력에 대한 서비스 거부 공격(DDoS)" 이라 표현했습니다. 소셜미디어를 먼저 삼킨 AI 슬럽이 이제 소프트웨어 인프라의 심장부로 전이된 것입니다.
흥미로운 점은 이 블로그에서 불과 이틀 전 다뤘던 주제의 정반대 면이라는 것입니다. 코딩 에이전트가 자유 소프트웨어를 부활시킬 수 있다는 희망과, 같은 기술이 오픈소스 생태계를 무너뜨리고 있다는 현실. 같은 동전의 양면을 들여다보겠습니다.
소셜미디어 AI 슬럽이 코드 세계로 건너왔다
오픈소스는 수십 년간 "누구나 기여할 수 있다"는 원칙 위에 성장했습니다. 이 원칙이 작동했던 이유는 기여의 장벽 자체가 품질 필터 역할을 했기 때문입니다. 코드를 작성하고, 프로젝트를 이해하고, PR을 제출하는 과정은 일정 수준의 역량과 관심을 요구했습니다. 기여할 수 있다는 것은 곧 기여할 자격이 있다는 의미이기도 했습니다.
AI 코딩 도구, 특히 "vibe coding"의 확산이 이 균형을 깨뜨렸습니다. Central European University와 Kiel Institute 연구진의 분석에 따르면, AI 에이전트가 프로젝트 문서를 읽지 않고 패키지를 선택하고, 버그를 보고하되 메인테이너와 소통하지 않는 악순환이 형성되고 있습니다. 코드 작성이 쉬워진 것은 분명 긍정적이지만, 프로젝트를 이해하지 못한 채 AI가 생성한 코드를 그대로 제출하는 "drive-by contribution"이 폭발적으로 증가한 것입니다.
배경 수치들이 이 변화의 규모를 보여줍니다. Stack Overflow는 ChatGPT 출시 6개월 만에 활동량이 25% 감소했습니다. Tailwind CSS는 문서 트래픽이 40% 하락했지만 다운로드는 오히려 증가했고, 수익은 80% 급감했습니다. GitHub에는 2025년 한 해에만 3,600만 명의 신규 개발자가 가입했지만(인도에서만 520만 명), 메인테이너 수는 정체 상태입니다.
그리고 이 모든 변화가 왜 위험한지를 설명하는 한 가지 숫자가 있습니다. 전 세계 코드베이스의 96% 가 오픈소스에 의존합니다. 메인테이너 번아웃은 곧 소프트웨어 인프라의 위기입니다.
핵심 사례로 본 AI Slopageddon의 실체
| 프로젝트 | 대응 수준 | 핵심 조치 | 핵심 수치 | 시기 |
|---|---|---|---|---|
| Jazzband | 조직 해산 | 10년 운영 종료, 개방 모델 유지 불가 판정, PyCon US 전 이전 조율 중 | AI PR 중 10%만 기준 충족 | 2026.03.14 |
| tldraw | 외부 PR 폐쇄 | 외부 기여 전면 자동 폐쇄, AI 환각 기반 PR 악순환 차단 | AI→AI 재귀 슬럽 루프 확인 | 2026.01.15 |
| cURL | 바운티 폐쇄 | HackerOne 버그 바운티 종료, GitHub 직접 보고로 전환, 금전 보상 제거 | 확인율 15% → 5% 미만 | 2026.01.26 |
| ICML 2026 | 일괄 거부 | 워터마크 시스템으로 AI 피어리뷰 탐지, 위반 논문 desk-reject | 497건 거부, 506명 위반 적발 | 2026 |
| Ghostty | 무관용 정책 | AI_POLICY.md 도입, 무단 AI PR 즉시 폐쇄, 저품질 기여자 공개 명단 관리 | AI PR의 90% 개념 자체 결함 | 2025 |
| Gentoo / NetBSD | 전면 금지 | Gentoo: AI 기여 전면 금지 / NetBSD: LLM 코드 "오염" 분류, 특별 승인 요구 | 무승인 병합 원천 차단 | 2025 |
| Node.js / Linux Kernel | 가이드라인 수립 | Node.js: HackerOne 엄격 신호 요구 / Linux Kernel: AI 기여 가이드라인 제정 중 | — | 진행 중 |
cURL: 6년간의 버그 바운티가 AI 슬럽에 무너지다
cURL 메인테이너 Daniel Stenberg은 2026년 1월 26일, 2019년부터 HackerOne을 통해 운영하던 버그 바운티 프로그램의 공식 종료를 발표했습니다. 이 프로그램은 6년간 87건의 실제 취약점을 발견하고 $100,000 이상을 지급한 성공적인 보안 프로그램이었습니다.
문제는 AI가 보상이라는 금전적 인센티브와 만났을 때 벌어졌습니다. AI 이전에는 제출된 리포트 중 15% 이상이 실제 취약점으로 확인되었습니다. 2025년에 이 비율은 5% 미만 으로 떨어졌습니다. 20건 중 1건도 진짜가 아닌 상황입니다. 한 사례에서는 16시간 만에 7건의 허위 제출이 쏟아졌습니다. 전체 제출의 약 20%가 AI 생성물로 추정됩니다.
Stenberg의 말이 이 상황을 가장 정확하게 요약합니다.
"끝없는 슬럽 제출물을 관리하는 것은 심각한 정신적 피해를 주며, 때로는 반박하는 데 오랜 시간이 걸립니다."
"사람들이 쓰레기와 제대로 조사하지 않은 리포트를 제출할 인센티브를 제거하는 것이 목표입니다."
2026년 2월 1일부터 cURL은 HackerOne 대신 GitHub을 통한 직접 보안 이슈 보고로 전환했습니다. 금전적 보상은 없습니다. 돈이라는 동기를 제거함으로써 슬럽을 차단하겠다는 전략입니다. 하지만 이는 동시에 진지한 보안 연구자들의 이탈을 초래할 수 있는 양날의 검이기도 합니다.
Ghostty: "반AI가 아니라 반바보다"
Ghostty 터미널 에뮬레이터의 창시자 Mitchell Hashimoto(HashiCorp 공동 창업자)는 다른 접근을 택했습니다. AI를 금지하는 대신, 무책임한 AI 사용을 금지하는 세밀한 정책 문서 AI_POLICY.md를 도입한 것입니다.
정책의 핵심은 여섯 가지입니다. 첫째, 모든 형태의 AI 사용을 반드시 공개해야 합니다. 사용한 도구(Claude Code, Cursor, Amp 등)와 AI 지원 범위를 명시해야 합니다. 둘째, human-in-the-loop가 모든 코드를 완전히 이해해야 합니다. AI 도구 없이 변경 사항을 설명하지 못하면 기여해서는 안 됩니다. 셋째, AI 지원 PR은 사전 승인된 이슈에 대해서만 허용됩니다. 무단으로 제출된 AI PR은 질문 없이 즉시 폐쇄됩니다. 넷째, AI 생성 텍스트와 코드만 허용하고 AI 생성 이미지, 비디오, 오디오는 금지합니다. 다섯째, 저품질 AI 기여자는 공개 명단에 등록되며, 이 명단은 다른 프로젝트와도 공유될 수 있습니다. 여섯째, 메인테이너는 신뢰도에 기반하여 AI 도구를 자율적으로 사용할 수 있습니다.
Hashimoto의 트위터 발언은 현장의 온도를 생생하게 전달합니다.
"이것은 반AI 입장이 아닙니다. 반바보 입장입니다."
(원문: "This is not an anti-AI stance. This is an anti-idiot stance.")
"여기는 전쟁터입니다. 메인테이너 사기가 역대 최저입니다."
(원문: "It's a f***ing war zone out here man. Maintainer morale at an all time low.")
그가 추정하기로 AI PR의 90% 는 실행이 아닌 개념 자체에 근본적 결함이 있습니다. AI가 코드를 잘못 작성한 것이 아니라, 애초에 해결해야 할 문제를 잘못 이해한 것입니다.
하지만 Hashimoto는 좋은 AI 기여의 사례도 공유했습니다. 한 기여자가 도메인 지식이 부족하다고 솔직히 고백하고, Discord에서 먼저 대화하고, 허락을 구한 뒤 AI를 활용하여 4개의 실제 크래시 이슈를 수정했습니다. Hashimoto는 이를 칭찬했습니다.
"그는 인간으로서 Discord에 왔고, 인간으로서 연락했습니다."
핵심은 명확합니다. AI 도구가 문제가 아니라, 인간의 이해와 소통 없이 AI 출력물을 그대로 던지는 행위가 문제입니다.
tldraw: AI가 AI의 환각을 먹고 PR을 만드는 악순환
tldraw 창시자 Steve Ruiz는 2026년 1월 15일 외부 PR을 전면 자동 폐쇄하는 가장 극단적인 조치를 발표했습니다. 흥미로운 것은 그가 발견한 악순환 구조입니다. Ruiz 자신의 AI 스크립트가 작성한 저품질 이슈를 외부 기여자들이 자신의 AI 도구에 입력하고, 그 AI가 환각(hallucination)에 기반한 PR을 생성하는 것입니다. AI의 출력이 다른 AI의 입력이 되는, 품질 저하의 재귀적 루프입니다.
Ruiz의 질문은 근본적입니다.
"AI 코딩 어시스턴트의 세계에서, 외부 기여자의 코드가 정말로 가치가 있을까요? 코드 작성이 쉬운 부분이라면, 왜 다른 사람이 작성한 것을 원하겠습니까?"
중요한 점은 tldraw가 AI 코드 자체를 거부한 것이 아니라는 것입니다. Ruiz 본인도 AI 도구를 사용합니다. 문제는 프로젝트에 대한 이해도 동기도 없이, AI가 생성한 코드를 그대로 제출하는 외부 기여였습니다.
Jazzband: AI 스팸이 10년 프로젝트를 죽이다
2026년 3월 14일, 가장 비극적인 결과가 발생했습니다. 10년간 운영된 Python 오픈소스 협동조합 Jazzband가 공식 종료를 선언한 것입니다.
Jazzband는 "가입한 모든 사람에게 코드 푸시, 이슈 분류, PR 병합 권한을 부여"하는 극도로 개방적인 모델로 설계되었습니다. 이 개방성이 바로 Jazzband의 정체성이었습니다. 하지만 GitHub의 "Slopocalypse" 앞에서 이 모델은 유지될 수 없었습니다. AI 생성 스팸 PR과 이슈가 범람하면서, AI PR 중 10건 중 1건만 프로젝트 기준을 충족하는 상황에서, 모든 가입자에게 푸시 권한을 주는 조직은 안전하게 운영될 수 없었습니다.
Jazzband의 종료는 단순히 한 프로젝트가 사라진 것이 아닙니다. "누구나 기여할 수 있다"는 오픈소스의 근본 원칙이 AI 시대에 어떤 취약점을 가지는지 보여주는 상징적 사건입니다. 현재 PyCon US 2026 전까지 프로젝트 이전을 조율 중이며, GitHub 조직과 웹사이트는 2026년 말까지만 유지됩니다.
ICML 2026: 워터마크로 497건의 AI 피어리뷰를 적발하다
학술 분야도 예외가 아닙니다. 국제 머신러닝 학회(ICML) 2026은 독창적인 워터마크 시스템으로 AI 생성 피어리뷰를 적발했습니다.
작동 방식은 이렇습니다. 먼저 170,000개의 구문 사전을 생성합니다. 각 논문에 대해 사전에서 2개의 구문을 무작위 선택합니다(중복 확률 100억 분의 1 미만). 제출된 PDF에 LLM에게만 보이는 숨겨진 지시를 삽입합니다. 지시 내용은 리뷰에 선택된 구문을 포함하라는 것입니다. 인간 리뷰어에게는 이 워터마크가 보이지 않지만, 프론티어 LLM의 80% 이상이 주입된 지시를 따릅니다. 모든 플래그된 사례는 수동 인간 검증을 거칩니다.
결과는 충격적이었습니다. 497건의 논문이 desk-reject 처리되었고(전체 제출의 약 2%), 506명의 고유 리뷰어가 LLM 사용 금지 정책 위반으로 탐지되었습니다. 그중 51명(10%)은 리뷰의 절반 이상이 제거되었습니다. 오탐률은 0.0001의 family-wise error rate로 극히 낮았습니다.
ICML 2026 AI 피어리뷰 탐지 시스템
(전체 제출의 약 2%)
(고유 계정 기준)
AI 생성으로 판정
ICML은 이 접근법이 "노골적이고 부주의한 사용"만 포착할 수 있음을 솔직히 인정했습니다. LLM 출력을 직접 복사-붙여넣기한 경우만 탐지 가능하다는 한계가 있습니다. 하지만 이조차 전체 리뷰의 약 1%에 해당한다는 것은, 학술 피어리뷰의 무결성이 얼마나 빠르게 침식되고 있는지를 보여줍니다.
그 외 프로젝트들의 대응
이 현상에 대응하는 것은 위의 프로젝트들만이 아닙니다. Gentoo Linux 는 2025년에 AI 기여를 전면 금지했습니다. NetBSD 는 LLM 생성 코드를 "오염된(tainted)" 것으로 분류하고 특별 승인을 요구합니다. Node.js 는 HackerOne에서 더 엄격한 신호(signal)를 요구하기 시작했습니다. Linux Kernel 은 Linux Foundation 정책 하에서 AI 기여 가이드라인을 수립 중입니다.
RedMonk의 Kate Holterhoff는 2026년 2월 73개 이상 조직의 AI 기여 정책을 분석한 조사를 발표했습니다. 정책 채택이 2023년 이후 크게 가속화되고 있으며, 전체 입장(허용/금지/미결정), 주요 관심사(품질/저작권/윤리), 공개 요구사항 등 다양한 차원에서 정책이 수립되고 있습니다.
구조적 문제: "인간 주의력 DDoS"의 메커니즘
"인간 주의력 DDoS"의 악순환 메커니즘
AI Slopageddon 흐름
기존 DDoS와 구조적 유사성
비대칭 공식: cURL 사례 — 16시간 분량의 허위 리포트 처리에 메인테이너 20시간 소모
GitHub이 이 현상을 "DDoS"에 비유한 것은 수사적 표현이 아닙니다. 구조적으로 정확한 비유입니다.
전통적인 DDoS 공격은 서버의 처리 용량을 초과하는 요청을 보내 정상적인 서비스를 마비시킵니다. AI Slopageddon은 메인테이너의 주의력(attention) 용량을 초과하는 기여를 보내 정상적인 리뷰 프로세스를 마비시킵니다. 공격자의 비용은 거의 제로인 반면, 방어자(메인테이너)의 비용은 기하급수적으로 증가합니다. 각 개별 요청은 정상적으로 보일 수 있지만, 총량이 시스템을 압도합니다.
이 비유를 더 깊이 들여다보면, 세 가지 구조적 문제가 드러납니다.
첫째, 비대칭 비용 구조입니다. AI로 PR을 생성하는 데 드는 비용은 거의 제로입니다. 하지만 그 PR을 리뷰하고, 문제점을 설명하고, 정중하게 거부하는 데 드는 메인테이너의 시간과 감정 에너지는 건당 수십 분에서 수 시간입니다. cURL의 사례가 이를 극명하게 보여줍니다. 16시간 분량의 허위 리포트를 처리하는 데 20시간이 소요되었습니다.
둘째, 무료 노동 착취 구조의 악화입니다. 오픈소스 메인테이너들은 이미 무보수 자원봉사 상태에서 일하고 있었습니다. 여기에 AI 슬럽 리뷰라는 새로운 부담이 추가된 것입니다. Seth Larson(Python Software Foundation)의 말이 이를 대변합니다.
"좋아하지도 않는 일에 귀중한 자원봉사 시간을 낭비하는 것은 메인테이너를 번아웃시키는 가장 확실한 방법입니다."
셋째, 보안 위험입니다. 리뷰 역량이 소진된 상태에서 검증되지 않은 AI 생성 코드가 병합되면, 보안 취약점이 프로덕션 환경에 유입될 수 있습니다. 이전의 Hacktoberfest 스팸(세미콜론 추가 PR 같은)과 달리, AI 코드는 테스트를 통과하고 기능적으로 올바르게 보이기 때문에 탐지가 훨씬 어렵습니다. Craig McLuckie(Stacklok)는 "good first issue" 라벨이 이제 24시간 이내에 저품질 vibe-coded 슬럽을 끌어들인다고 경고했습니다.
대응과 반론
프로젝트별 정책의 스펙트럼
각 프로젝트의 대응은 완전 차단(tldraw)부터 도구적 대응(GitHub)까지 넓은 스펙트럼을 보여줍니다. 하지만 공통분모가 있습니다. 어떤 프로젝트도 AI 기술 자체를 문제시하지 않습니다. 문제는 항상 "무책임한 사용"입니다.
Ghostty의 정책이 가장 세밀한 접근입니다. AI 사용을 금지하는 것이 아니라, 공개와 이해를 의무화합니다. 메인테이너는 자유롭게 AI를 쓸 수 있고, 외부 기여자도 승인된 이슈에 대해 AI를 활용할 수 있습니다. 핵심 기준은 "AI 도구 없이 변경 사항을 설명할 수 있는가"입니다.
Linux Foundation의 $12.5M 기금
2026년 3월 17일, Linux Foundation이 오픈소스 보안 강화를 위해 $12.5M 기금을 발표했습니다. 기금 출처는 Anthropic, AWS, GitHub, Google, Google DeepMind, Microsoft, OpenAI입니다. Alpha-Omega와 OpenSSF(Open Source Security Foundation)가 관리하며, 메인테이너들과 직접 협력하여 기존 프로젝트 워크플로우에 맞는 보안 도구를 개발할 예정입니다.
이 기금의 의의는 명확합니다. AI 슬럽 문제를 야기한 기업들(AI 기업 + 플랫폼 기업)이 직접 해결 비용을 부담하는 구조입니다. 하지만 $12.5M이 전체 오픈소스 생태계의 규모에 비해 충분한지는 의문입니다. 전 세계 코드베이스의 96%가 의존하는 인프라를 보호하기에 이 금액이 과연 적절할까요?
Hashimoto의 비전: 라인 레벨 귀속(Attribution)
Hashimoto는 단기적 정책을 넘어 장기적 해법도 제시했습니다. 모든 코드 변경에 대해 프롬프트, 추론, 반복 과정의 전체 이력을 매핑하는 "라인 레벨 귀속(attribution)" 시스템입니다. git blame의 AI 버전이라고 할 수 있습니다. 사려 깊은 장인정신과 급조된 콘텐츠를 기술적으로 구분하겠다는 구상입니다.
이를 위해 필요한 것은 세 가지입니다. Git/jj 네이티브 메타데이터 지원, GitHub/GitLab의 표면 가시성 확보, 그리고 AI 제공자의 암호학적 증명입니다. 실현까지는 시간이 걸리겠지만, 방향성은 주목할 만합니다.
"AI 금지는 혁신을 저해한다"는 반론
물론 반대 의견도 존재합니다. AI 도구의 탐지가 불가능해질 것이므로 금지 자체가 비현실적이라는 주장, 코드 품질 자체를 기준으로 판단해야지 생성 도구를 기준으로 하면 안 된다는 주장이 있습니다. InfoQ는 몇 년 내에 AI와 인간 코드의 구분이 "기능적으로 불가능"해질 것이라 전망했습니다.
이 반론은 타당한 지점이 있습니다. 장기적으로 AI 생성 여부를 기준으로 한 정책은 유지하기 어려워질 수 있습니다. 하지만 현재의 문제는 AI 코드의 품질이 아니라, 프로젝트를 이해하지 못한 채 대량으로 쏟아지는 기여의 양입니다. Hashimoto가 지적했듯이, AI PR의 90%는 코드 품질이 아니라 개념 자체에 결함이 있습니다.
커뮤니티 반응: 메인테이너의 분노와 실용주의 사이
Hacker News, Reddit, X에서의 반응은 크게 세 갈래로 나뉩니다.
다수 의견은 메인테이너 보호입니다. Jeff Geerling은 "AI가 오픈소스를 파괴하고 있으며, 아직 잘하지도 못하면서 그렇다"고 직설적으로 비판했습니다. 그는 직접 AI를 사용해 블로그를 마이그레이션(Drupal에서 Hugo로)한 경험을 공유하면서, AI가 유용하지만 모든 코드를 수동으로 테스트하고 검토하는 데 상당한 시간이 소요되었다고 밝혔습니다. Seth Larson(PSF), Craig McLuckie(Stacklok) 등 업계 인사들도 메인테이너 번아웃의 심각성을 경고합니다.
소수 의견은 AI 금지 반대입니다. AI 도구가 점점 탐지 불가능해질 것이므로 금지는 비현실적이며, 코드 품질 자체를 기준으로 삼아야 한다는 입장입니다. 이 시각에서는 AI 기여 금지가 오히려 혁신을 저해한다고 봅니다.
중간 지대에는 실용적 입장이 있습니다. Hashimoto의 "반AI가 아니라 반바보"라는 표현이 이 입장을 대표합니다. Continue.dev는 "AI가 문제가 아니라 무신경함(thoughtlessness)이 문제"라고 정리했습니다. Ruiz 역시 AI로 작성된 코드 자체는 허용하되, 무동기 저품질 외부 기여가 문제라는 입장입니다.
"AI가 오픈소스를 파괴하고 있다. 메인테이너를 먼저 보호해야 한다."
대표: Jeff Geerling, Seth Larson(PSF), Craig McLuckie(Stacklok)
GitHub Copilot Issue 기능 반대 토론 — 1,239개 추천, 125개 댓글
"AI 탐지가 곧 불가능해진다. 코드 품질로만 판단해야 한다. 금지는 혁신을 막는다."
근거: InfoQ — "AI·인간 코드 구분이 기능적으로 불가능해질 것"
일부 개발자들 — GitHub에서 Codeberg / Forgejo 이전 논의 시작
"반AI가 아니라 반무신경함이다. AI 도구가 문제가 아니라 이해 없는 사용이 문제다."
대표: Mitchell Hashimoto(Ghostty), Steve Ruiz(tldraw), Continue.dev
Ghostty의 AI_POLICY.md — 공개·이해 의무화로 중간 지대 제시
특히 주목할 만한 것은 GitHub Copilot Issue 기능에 대한 반발입니다. GitHub이 2025년 5월 "Create New Issue" 페이지에 Copilot으로 이슈를 생성하는 기능을 추가하자, 메인테이너들이 즉각 항의했습니다. AI 생성 이슈를 차단할 수 있는 옵션을 요구하는 커뮤니티 토론은 1,239개 추천과 125개 댓글을 기록했으며, 일부 개발자들은 GitHub에서 Codeberg/Forgejo로의 이전을 논의하기 시작했습니다.
전망: 오픈소스와 AI 코드의 공존은 가능한가
단기적으로는 더 많은 프로젝트가 AI 기여 정책을 공식화할 것입니다. RedMonk 조사에서 이미 73개 이상 조직이 정책을 수립했으며, 이 추세는 가속화되고 있습니다. GitHub도 AI 생성 기여 라벨링과 필터링 도구를 더 적극적으로 개발할 것으로 보입니다.
중기적으로는 Hashimoto가 제안한 라인 레벨 귀속 시스템이 등장할 가능성이 있습니다. Git이나 jj 레벨에서 AI 사용 메타데이터를 추적하는 표준이 형성되고, AI 제공자의 암호학적 증명 시스템이 도입될 수 있습니다.
하지만 더 근본적인 질문들이 남아 있습니다. AI 코드와 인간 코드의 구분이 기능적으로 불가능해지면 어떻게 할 것인가? 오픈소스의 "누구나 기여" 원칙은 수정되어야 하는가? AI 기업이 오픈소스에서 훈련 데이터를 가져가고, 동시에 슬럽을 돌려보내는 구조는 지속 가능한가?
이 블로그에서 이틀 전 다룬 글에서 George London은 코딩 에이전트가 자유 소프트웨어를 부활시킬 수 있다고 주장했습니다. 에이전트가 소스 코드 접근권을 실질적 권리로 전환시킨다는 희망적인 전망이었습니다. 하지만 오늘 살펴본 현실은 그 동전의 뒷면입니다. 같은 기술이 오픈소스 생태계의 생명선인 메인테이너들을 무너뜨리고 있습니다.
AI Slopageddon은 기술의 문제가 아닙니다. 책임의 문제입니다. AI 코딩 도구를 사용하는 우리 모두가 자문해야 할 것입니다. 내가 제출하려는 이 PR은 프로젝트를 이해한 결과인가, 아니면 AI의 출력물을 그대로 던지는 것인가? Hashimoto의 말처럼, 이것은 반AI의 문제가 아니라 반무신경함의 문제입니다. 코드를 작성하는 비용이 제로에 가까워진 세상에서, 진짜 비용은 그 코드를 리뷰하는 사람의 시간과 의지에 있습니다.