Devlery
Blog/AI

AI 얼굴 인식이 무고한 할머니를 6개월 감옥에 보냈다, Clearview AI의 실패

Clearview AI의 얼굴 인식이 테네시 할머니 Angela Lipps를 1,200마일 떨어진 노스다코타 은행 사기범으로 오인해 6개월간 감옥에 보냈습니다. 미국 9번째 AI 오인 체포 사건이 던지는 질문들.

Angela Lipps(50세)는 테네시 자택에서 총구를 겨눈 경찰에게 체포되었습니다. 혐의는 1,200마일 떨어진 노스다코타주 Fargo에서 발생한 은행 사기. 그녀는 노스다코타에 가본 적이 없다고 말했습니다. 경찰은 믿지 않았습니다. AI가 그녀의 얼굴을 범인과 매칭했기 때문입니다. 6개월 후, 국선변호사가 은행 기록을 확인하자 Lipps가 혐의 시점에 테네시에서 담배를 사고 사회보장 수표를 입금하고 있었다는 사실이 드러났습니다. 혐의는 크리스마스 이브에 기각되었습니다. 하지만 그때 이미 그녀는 집, 차, 반려견을 모두 잃은 뒤였습니다.

CNN이 3월 29일 보도한 이 사건은 미국에서 공식적으로 알려진 9번째 AI 얼굴 인식 오인 체포 사건 입니다. 기존 8건 중 7건은 흑인이었습니다.

Clearview AI가 만든 사슬

사건의 시작은 Fargo/West Fargo 지역에서 발생한 은행 사기입니다. 범인들은 가짜 ID를 사용해 주택 담보 대출을 인출했습니다. West Fargo 경찰은 이 가짜 ID의 사진을 Clearview AI 에 넣었습니다.

Clearview AI는 인터넷과 소셜 미디어에서 스크래핑한 수십억 장의 사진 데이터베이스 를 보유한 스타트업입니다. 2,400개 이상의 미국 법집행 기관이 이 서비스를 사용하며, ICE(미국 이민세관집행국)와 $9.2M 계약을 맺고 있습니다. Clearview는 가짜 ID 사진에서 "Angela Lipps와 유사한 특징을 가진 잠재적 용의자"를 식별했습니다.

여기서 첫 번째 문제가 발생합니다. West Fargo 경찰은 이 결과를 검찰이 아닌 Fargo 경찰의 형사에게 직접 전달했습니다. 정상적인 절차라면 노스다코타 주 정보센터(NDSLIC)를 통해 검증을 거쳐야 했습니다. 이 프로토콜은 무시되었습니다.

Fargo 경찰은 Clearview의 매칭 결과와 Lipps의 소셜 미디어를 비교한 후, "매칭이 충분하다"고 판단했습니다. 2025년 7월 1일 판사가 전국 인도 가능한 체포 영장을 발부했고, 7월 14일 Lipps는 테네시 자택에서 체포되었습니다.

5개월의 침묵, 은행 기록 한 장

체포 후 일어난 일이 이 사건의 가장 충격적인 부분입니다.

Lipps는 보석 없이 구금되었습니다. 국선변호사가 배정되었지만, Fargo 경찰이 Lipps 및 변호사와 실제로 만나 사건을 논의한 것은 체포 5개월 후 인 2025년 12월 19일이었습니다. 이 미팅에서 변호사가 Lipps의 은행 기록을 제시했습니다.

기록은 명확했습니다. 혐의가 적용된 시점에 Lipps는 테네시에서 담배를 구매하고, 사회보장 수표를 입금하고 있었습니다. 범죄가 발생한 Fargo와는 1,200마일(약 1,900km) 떨어진 곳입니다. 5일 후인 12월 24일, 혐의가 기각되었습니다.

사건 타임라인
2025.07.01
판사가 체포 영장 발부 (전국 인도 가능)
2025.07.14
테네시 자택에서 총구를 겨누고 체포
5개월간
보석 없이 구금. 경찰은 Lipps/변호사와 면담하지 않음
2025.12.19
첫 면담. 은행 기록으로 부재증명 확인
2025.12.24
혐의 기각 (without prejudice). 돈, 코트 없이 석방
석방 후
집, 차, 반려견 모두 잃음

석방 당시 Lipps에게는 돈도, 겨울 코트도 없었습니다. 6개월간의 구금 동안 집을 잃었고, 차를 잃었고, 반려견마저 잃었습니다. 혐의 기각은 "without prejudice"(새 증거 시 재기소 가능)였습니다.

Fargo 경찰의 대응, 사과 없는 "실수 인정"

Fargo 경찰서장 Dave Zibolski는 "실수를 인정하게 되어 기쁘다"고 말하면서도, 이것이 "악의적이거나 의도적인 행위는 아니다" 라고 강조했습니다.

경찰이 인정한 오류는 세 가지입니다. Clearview AI 기술의 부적절한 사용, NDSLIC 프로토콜 미준수, West Fargo의 얼굴 인식 사용에 대한 인지 실패. 그러나 Zibolski는 직접적인 사과를 거부 했고, 사건 종결도 거부했습니다. 그는 "상당히 조직적인 범죄 기업"이 존재하며, Lipps의 관여 여부가 아직 불확실하다고 말했습니다. 혐의가 기각되었는데도 말입니다.

Fargo 경찰은 임시 정책 변경을 발표했습니다. 형사수사부서만 얼굴 인식을 사용할 수 있고, 국가/연방 수준 기관의 검증이 필수이며, 의무적 생체인식 훈련과 월간 보고를 도입합니다. 하지만 자체 얼굴 인식 도구 도입 계획은 없습니다. West Fargo 경찰은 Clearview AI를 계속 사용할 계획 이며, 다른 기관에 장비를 대여하는 것도 지속하겠다고 밝혔습니다.

9번째 사건, 7/8이 흑인

Angela Lipps 사건은 미국에서 공식적으로 알려진 9번째 AI 얼굴 인식 오인 체포입니다. 이전 8건 중 7건이 흑인 이었습니다.

이 통계는 우연이 아닙니다. NIST(미국 국립표준기술연구소)가 189개 얼굴 인식 알고리즘을 99개 개발사로부터 1,800만 장의 이미지로 평가한 결과, 흑인 여성의 오탐율(false positive rate)이 백인 남성 대비 10~100배 높았습니다. 아프리카계 미국인 여성이 모든 인구 집단 중 최고 오탐율을 기록했습니다.

AI 얼굴 인식의 구조적 편향 (NIST 데이터)

백인 남성 오탐율 (기준)1x
흑인 여성 오탐율10~100x

출처: NIST — 189개 알고리즘, 99개 개발사, 1,800만 이미지 평가

Clearview AI는 이 데이터에 대해 "얼굴 인식 편향의 신화"라는 제목의 글을 공식 블로그에 게시하며, 자사 기술로 인한 오인 체포 사례는 없다 고 주장합니다. Angela Lipps 사건이 Clearview AI의 매칭에서 직접 시작되었음에도 말입니다.

경량 규제 프레임워크와 실제 피해 사이의 간극

이 사건은 며칠 전 발표된 백악관 국가 AI 정책 프레임워크와 직접 대비됩니다.

프레임워크는 "경량 규제(light-touch regulation)"를 채택하고, 새로운 AI 규제 기관 설립을 거부하며, 의무적 AI 안전 테스트와 편견 방지 규정을 포함하지 않았습니다. 주정부의 AI 규제를 선점하겠다고 선언했습니다. Angela Lipps 사건은 이 접근법이 구체적으로 어떤 빈자리를 남기는지 보여줍니다.

현재 미국에는 법집행 기관의 얼굴 인식 사용에 대한 연방 차원의 규제가 없습니다. 얼굴 인식 결과만으로 체포 영장을 발부할 수 있는지에 대한 명확한 연방 가이드라인도 없습니다. 프레임워크는 이 상황을 바꾸지 않습니다. 기존 소비자 보호법과 시민권법으로 충분하다는 입장이기 때문입니다.

ACLU(미국시민자유연합)는 이 접근법을 정면으로 비판합니다. 경찰이 "이 결과를 유일한 수사 근거로 사용하지 마세요"라는 경고문을 읽는 것만으로는 오인 체포를 방지할 수 없다는 것입니다. Angela Lipps 사건이 정확히 이것을 증명합니다. Clearview AI의 매칭 결과에 경고문이 있었을 것이지만, 경찰은 그 결과를 사실상 체포의 유일한 근거로 사용했습니다.

커뮤니티 반응, "기술이 아니라 시스템의 문제"

이 사건은 Hacker News에서 275포인트, 107개 댓글을 기록했습니다.

개발자 커뮤니티의 논쟁은 "기술적 정확도"와 "시스템적 실패" 사이에서 전개됩니다. 기술적 관점에서는 얼굴 인식의 정확도를 높이면 해결된다는 논리가 있습니다. 하지만 이 사건에서 문제는 정확도만이 아닙니다. 매칭 결과를 검증 없이 체포 근거로 사용한 경찰의 절차, 5개월간 변호사 면담 없이 구금을 유지한 사법 시스템, 은행 기록 한 장이면 확인될 부재증명을 아무도 확인하지 않은 수사 과정 — 이 모든 것이 결합된 시스템적 실패입니다.

일부 개발자들은 얼굴 인식을 DNA나 지문처럼 취급하면 안 된다고 주장합니다. 통계적 유사성 지표일 뿐, 확정적 식별 수단이 아니라는 것입니다. DNA 매칭이 99.9%의 정확도를 가진다면, 얼굴 인식은 그 수준에 훨씬 미치지 못합니다. 특히 흑인 여성에 대해서는 오탐율이 기준 대비 수십 배 높습니다.

또 다른 논점은 Clearview AI의 데이터베이스 자체의 윤리성 입니다. 소셜 미디어에서 동의 없이 스크래핑한 수십억 장의 사진으로 구축된 데이터베이스가, 법집행에서 체포의 근거가 되어도 괜찮은 것인가? 이것은 기술적 정확도와 무관한, 근본적인 윤리적 질문입니다.

전망, 9번째 사건이 마지막이 되지 않을 이유

Angela Lipps 사건이 마지막 AI 얼굴 인식 오인 체포가 되지 않을 것이라는 데는 거의 의문의 여지가 없습니다.

2,400개 이상의 미국 법집행 기관이 Clearview AI를 사용하고 있습니다. West Fargo 경찰은 이 기술을 계속 사용하겠다 고 밝혔습니다. 연방 차원의 규제는 없고, 백악관 프레임워크는 새로운 규제를 추가할 의사가 없습니다. NIST 데이터는 구조적 편향이 존재함을 보여주지만, Clearview AI는 이를 "신화"라고 부릅니다.

이 사건은 AI 기술의 실패에 대한 이야기이면서, 동시에 AI 거버넌스의 실패에 대한 이야기입니다. 기술적으로 불완전한 AI 시스템이 중대한 의사결정(체포, 구금)에 사용될 때, 그 불완전성의 비용은 기업이 아니라 개인이 지불합니다. Angela Lipps가 잃은 6개월, 집, 차, 반려견에 대해 아무도 책임을 지지 않았습니다. Fargo 경찰은 사과를 거부했고, Clearview AI는 자사 기술의 문제를 부인합니다.

AI가 점점 더 많은 영역에서 의사결정에 관여하는 시대에, "AI가 틀렸을 때 누가 책임지는가"라는 질문은 점점 더 긴급해지고 있습니다. Angela Lipps 사건은 현재의 답이 "아무도" 라는 것을 보여줍니다.