백악관이 AI 규제의 방향을 선택했다, 저작권 면책과 주법 선점의 의미
3월 20일 백악관이 발표한 국가 AI 정책 프레임워크는 AI 훈련 데이터의 저작권 침해를 부정하고, 주정부의 AI 규제를 선점하며, 신규 규제 기관 설립을 거부합니다. EU AI Act와 정반대 방향입니다.
3월 20일, 백악관이 국가 AI 정책 프레임워크를 발표했습니다. 43페이지의 이 문서에는 세 가지 핵심 입장이 담겨 있습니다. AI 모델의 저작권 자료 훈련은 저작권법 위반이 아닙니다. 주정부는 AI 개발을 규제할 수 없습니다. 새로운 연방 AI 규제 기관은 만들지 않습니다. AI 업계가 원하던 거의 모든 것이 들어 있고, AI 안전 진영이 우려하던 거의 모든 것이 빠져 있습니다.
이 프레임워크는 법적 구속력이 없는 의회 권고안입니다. 하지만 미국 AI 정책의 방향을 명확하게 설정했다는 점에서 업계 전체에 즉각적인 영향을 미칩니다.
7대 정책 영역, 그리고 빠진 것들
프레임워크는 7가지 정책 영역을 다룹니다. 아동 안전, 인프라와 에너지 비용, 저작권과 지적재산, 표현의 자유, 규제 구조, 인력 개발, 주법 선점입니다. 각 영역의 세부 내용도 중요하지만, 더 의미 있는 것은 프레임워크가 다루지 않는 것들 입니다.
- 아동 안전 보호 장치 (연령 인증, 부모 통제)
- 데이터센터 에너지 비용 주민 전가 방지
- 훈련 데이터 비의무적 집단 라이선스 권고
- AI 생성 초상/음성 보호 (NO FAKES Act)
- 규제 샌드박스 지원
- 연방 데이터셋 AI 활용 확대
- 기존 소비자 보호법 유지
- 의무적 알고리즘 투명성
- 연방 AI 안전 테스트 의무
- AI 편견/차별 방지 규정
- 데이터 수집 최소화 요건
- 의무적 영향 평가
- 생성형 AI 가드레일
- 오픈소스 AI 관련 규정
의무적 알고리즘 투명성, 연방 AI 안전 테스트, 편견·차별 방지 규정, 데이터 수집 제한, 의무적 영향 평가, 생성형 AI 가드레일 — 이 모든 항목이 빠져 있습니다. EU AI Act가 고위험 AI 시스템에 의무적 적합성 평가와 투명성 요건을 부과하는 것과 비교하면, 미국의 접근법은 의도적으로 규제의 빈자리 를 설계한 것에 가깝습니다.
"저작권 침해가 아니다", AI 업계의 가장 큰 승리
프레임워크의 7개 영역 중 AI 업계에 가장 직접적인 영향을 미치는 것은 저작권 입장입니다.
백악관은 "AI 모델의 저작권 자료 훈련은 저작권법을 위반하지 않는다"고 명시했습니다. 이것은 New York Times vs. OpenAI, Getty Images vs. Stability AI 등 현재 진행 중인 수십 건의 저작권 소송에 대한 행정부의 입장 선언입니다.
프레임워크는 이 문제를 의회가 아닌 법원 에서 판례를 통해 해결해야 한다고 권고합니다. 동시에, 훈련 데이터에 대한 "비의무적(nonmandatory) 집단 라이선스 시스템"을 의회가 고려할 수 있다고 덧붙였습니다. 핵심 단어는 "비의무적"입니다. AI 기업이 원하면 라이선스를 맺을 수 있지만, 라이선스 없이 훈련하더라도 저작권 침해가 아니라는 것입니다.
이 입장이 AI 기업에게 의미하는 바는 명확합니다. OpenAI, Anthropic, Google, Meta, Stability AI 등이 직면한 저작권 소송에서 행정부가 피고 측 편을 든 것 입니다. 법적 구속력은 없지만, 법원이 판결을 내릴 때 행정부의 공식 입장은 참고 자료로 기능합니다.
한편, 프레임워크는 한 가지 새로운 보호를 제안합니다. 개인의 음성이나 외모를 AI로 생성한 "디지털 복제물(digital replicas)"에 대한 연방 보호법입니다. NO FAKES Act와 같은 기존 입법안을 지지하며, 패러디, 풍자, 뉴스 보도 등 수정헌법 1조에 의해 보호되는 표현은 예외로 둡니다. 이것은 딥페이크 문제에 대한 대응으로, 저작권 프레이밍에서는 관대하면서 초상권 프레이밍에서는 보호적인 균형을 취한 것입니다.
주법 선점, Colorado AI Act의 운명
프레임워크의 두 번째 핵심 축은 주법 선점(federal preemption)입니다.
미국의 연방 시스템에서 AI 규제는 주(state) 차원에서 먼저 움직이고 있었습니다. 가장 대표적인 것이 Colorado AI Act입니다. 고위험 AI 시스템에 대해 의무적 영향 평가를 요구하는 이 법률은 AI 기업들에게 상당한 컴플라이언스 부담을 부과합니다. 캘리포니아, 일리노이 등 다른 주들도 유사한 입법을 추진 중이었습니다.
백악관 프레임워크는 이 흐름을 정면으로 차단합니다. 주정부가 AI "개발"을 규제하는 것은 주간 상거래와 국가안보에 대한 연방 관할권을 침해 한다는 논리입니다. 구체적으로 세 가지를 금지합니다. 주정부가 AI 개발을 규제하는 것, AI 관련 합법 활동에 "과도한 부담"을 지우는 것, 제3자의 불법 행위에 대해 AI 개발자에게 책임을 묻는 것입니다.
하지만 주의 모든 권한이 사라지는 것은 아닙니다. 기존 소비자 보호법, 아동 보호법, 사기 방지법을 통한 집행 권한은 유지됩니다. 주의 AI 조달 결정(법 집행, 공교육에서의 AI 사용)도 보존됩니다. Colorado AI Act가 2026년 6월 30일로 시행을 연기한 것은 이 프레임워크의 직접적 영향입니다.
이 선점 조항에 대한 반대는 즉각적이었습니다. Don Beyer 의원(민주당, 버지니아)은 프레임워크 발표 당일에 GUARDRAILS Act 를 발의했습니다. 트럼프 행정부의 프레임워크를 폐기하고 주법에 대한 모라토리엄을 차단하는 내용입니다.
"새로운 규제 기관은 만들지 않는다"
프레임워크의 세 번째 핵심 입장은 규제 구조에 관한 것입니다.
EU는 AI Act의 집행을 위해 EU AI Office라는 새로운 기관을 설립했습니다. 많은 AI 전문가들이 미국에도 유사한 연방 AI 규제 기관이 필요하다고 주장해왔습니다. 프레임워크는 이를 명시적으로 거부합니다. 의회는 새로운 연방 AI 규제 기관을 설립해서는 안 된다 는 것입니다.
대신 기존 섹터별 규제 기관이 각자의 관할 영역에서 AI를 규제하는 방식을 제안합니다. FDA가 의료 AI를 규제하고, SEC가 금융 AI를 규제하고, FTC가 소비자 보호 관점에서 AI를 감독하는 식입니다. 여기에 산업 주도의 표준 개발과 규제 샌드박스가 보완됩니다.
이 접근법의 장점은 기존 규제 전문성을 활용할 수 있다는 것입니다. 의료 AI의 안전 문제를 AI 전문가보다 의료 규제 전문가가 더 잘 판단할 수 있다는 논리입니다. 단점은 규제의 파편화입니다. 여러 기관이 각자의 방식으로 AI를 규제하면, 기업은 일관되지 않은 규제 환경에 놓이게 됩니다. 조정 기관 없이 이 문제를 어떻게 해결할 것인가에 대한 답은 프레임워크에 없습니다.
EU AI Act와의 대조, 두 개의 세계
미국 vs EU AI 규제 비교
| 영역 | 미국 (프레임워크) | EU (AI Act) |
|---|---|---|
| 접근법 | 혁신 지향, 경량 규제 | 위험 기반, 처방적 규제 |
| 규제 기관 | 신규 기관 불설립, 기존 기관 활용 | EU AI Office 신설 |
| 훈련 데이터 저작권 | "위반 아님", 법원 판례로 해결 | 투명성 의무, 옵트아웃 존중 |
| 고위험 AI | 영향 평가 의무 없음 | 의무적 적합성 평가 + 등록 |
| 투명성 | 의무 없음 | AI 생성 콘텐츠 라벨링 의무 |
| 집행 | 기존 법 활용, 산업 자율 표준 | 최대 €35M 또는 매출 7% 과징금 |
이 대비표가 보여주는 것은 단순한 정책 차이가 아닙니다. 미국과 EU가 AI에 대해 근본적으로 다른 사회적 계약 을 선택하고 있다는 것입니다.
EU의 접근법은 "AI는 잠재적으로 위험하므로, 안전이 증명될 때까지 규제한다"입니다. 미국의 접근법은 "AI는 기본적으로 혁신이므로, 위험이 실현될 때까지 규제하지 않는다"입니다. 둘 다 논리적으로 일관된 입장이지만, 결과는 크게 다릅니다.
글로벌 AI 기업에게 이것은 실질적인 컴플라이언스 분기를 의미합니다. 미국에서 합법적으로 훈련한 모델이 EU에서는 투명성 요건을 충족하지 못할 수 있습니다. EU 기준으로 컴플라이언트한 시스템이 미국에서는 불필요한 비용을 지불한 것이 됩니다. 양쪽 시장을 모두 대상으로 하는 기업은 사실상 두 개의 규제 체제를 동시에 준수 해야 합니다.
업계 반응, 예상대로 갈라졌다
프레임워크에 대한 반응은 입장에 따라 극명하게 갈렸습니다.
AI 업계 단체 NetChoice의 Patrick Hedger는 프레임워크가 "무엇이 중요하고 미래를 이기기 위해 무엇이 필요한지 알고 있다"고 평가하며, "경량 규제 환경(light-touch regulatory environment)"이 AI 혁신에 필수적이라고 지지했습니다.
반대쪽에서는 비영리 단체 Americans for Responsible Innovation의 Brad Carson이 프레임워크를 "기술 기업이 유해한 제품을 책임 없이 출시할 또 한 번의 기회"라고 비판했습니다. Josh Gottheimer 의원은 "주 AI 법을 광범위하게 차단하면서 AI 모델과 에이전트의 안전에 대한 핵심 소비자 보호가 빠져 있다"고 지적했습니다.
가장 강력한 입법적 대응은 Don Beyer 의원이 프레임워크 발표 당일 발의한 GUARDRAILS Act 입니다. 이 법안은 트럼프 행정부의 프레임워크를 폐기하고, 주정부의 AI 규제에 대한 모라토리엄을 차단하는 것을 목표로 합니다. 민주당의 Brian Schatz 상원의원, Yvette Clarke 하원의원 등이 지지하고 있어, 이 프레임워크를 둘러싼 정치적 대립은 장기화될 전망입니다.
개발자에게 달라지는 것과 달라지지 않는 것
프레임워크가 의회를 통과하여 입법화되기까지는 상당한 시간이 걸릴 것입니다. 하지만 정책 방향이 설정된 것 자체가 실무에 영향을 미칩니다.
달라지는 것: 저작권 리스크에 대한 인식이 변합니다. 행정부가 "훈련 데이터 저작권 침해 아님"을 공식 입장으로 채택함으로써, AI 기업과 개발자가 저작권 자료를 활용한 모델 훈련에 대해 느끼는 법적 불확실성이 줄어듭니다. 주 차원의 AI 규제 도입 속도도 둔화될 가능성이 높습니다. Colorado AI Act의 시행 연기가 첫 번째 사례입니다.
달라지지 않는 것: 기존 소비자 보호법에 의한 집행은 계속됩니다. FTC의 AI 관련 조사 권한은 그대로이고, 주 법무장관의 소비자 보호법 집행도 유지됩니다. 프레임워크가 "규제를 없앤다"기보다 "새로운 AI 전용 규제를 만들지 않는다"는 것임을 이해해야 합니다. AI 시스템이 소비자를 기만하거나 차별하면, 기존 법률로 여전히 제재를 받습니다.
오픈소스 AI의 빈자리: 프레임워크에서 가장 눈에 띄는 공백은 오픈소스 AI에 대한 입장이 없다는 것입니다. Meta Llama, Mistral, DeepSeek 등 오픈 웨이트 모델이 AI 생태계의 핵심이 된 상황에서, 이들에 대한 별도의 규제 또는 보호 입장이 없다는 것은 향후 보완이 필요한 영역입니다.
전망, 혁신의 가속인가 책임의 공백인가
이 프레임워크의 장기적 결과는 두 가지 시나리오로 갈립니다.
낙관적 시나리오에서는, 경량 규제가 미국 AI 기업의 혁신을 가속하고, EU 대비 규제 비용 우위가 글로벌 AI 인재와 투자를 미국으로 집중시킵니다. 아동 안전과 초상권 보호라는 최소한의 가드레일이 가장 시급한 위험을 관리하면서, 나머지는 시장과 기존 법률이 자율적으로 조정합니다.
비관적 시나리오에서는, 의무적 안전 테스트와 투명성 없이 AI 시스템의 위험이 누적되고, 대규모 AI 사고가 발생한 후에야 급격한 규제 전환이 이루어집니다. 소셜 미디어 규제가 10년간 자율 규제를 신뢰했다가 결국 강제적 개입으로 전환된 패턴이 반복될 수 있습니다.
어떤 시나리오가 현실화되든, 한 가지는 분명합니다. 미국은 AI에 대해 "증명될 때까지 무죄" 라는 원칙을 선택했고, EU는 "증명될 때까지 유죄" 라는 원칙을 선택했습니다. 이 두 접근법이 동시에 실험되는 것은 전 세계 AI 생태계에 대한 거대한 자연실험입니다. 어느 쪽이 옳았는지는 시간이 말해줄 것입니다.