Apple이 Siri의 두뇌를 라이벌 Google에게 맡긴 이유
Apple이 Google Gemini 1.2조 파라미터 모델로 Siri를 재구축합니다. 화면 인식, 멀티스텝 실행, 멀티턴 대화가 iOS 26.4에 탑재되며, AI 시대 하드웨어 기업의 전략 전환을 상징합니다.
Apple이 3월 1일, iOS 26.4에 탑재될 완전히 재설계된 Siri를 공식 확인했습니다. 그런데 그 두뇌는 Apple이 만든 것이 아닙니다. Google의 Gemini 1.2조 파라미터 모델입니다. 검색 시장에서 15년간 경쟁해 온 두 기업이, AI 시대에 역사적 동맹을 맺었습니다. 3월 말 출시 예정인 iOS 26.4의 새 Siri는 화면에 보이는 것을 읽고, 여러 앱에 걸친 작업을 실행하며, 자연스러운 대화를 유지합니다. "Hey Siri"가 드디어 "실제로 쓸 만한 AI"가 되는 순간입니다.
"명령-응답" 도구에서 "맥락 인식 에이전트"로
기존 Siri의 한계는 개발자라면 누구나 경험했습니다. "타이머 맞춰줘", "날씨 알려줘"는 되지만, 조금만 복잡한 요청을 하면 "웹 검색 결과를 보여드릴게요"로 도망갑니다. Apple이 연 $1B 이상의 비용(추산)을 들여 Google Gemini를 도입한 이유가 여기에 있습니다.
iOS 26.4의 Siri는 세 가지 근본적 변화를 가져옵니다.
화면 인식(On-Screen Context Awareness). Siri가 현재 화면에 표시된 내용을 읽고 이해합니다. Safari에서 레스토랑 페이지를 보고 있다면 "여기 예약해줘"라고 말할 수 있습니다. 항공편 확인 이메일이 열려 있다면 "일정에 추가하고 출발 2시간 전에 알려줘"가 한 마디로 됩니다. 이전에는 텍스트를 복사하고, 앱을 전환하고, 수동으로 입력해야 했던 작업입니다.
멀티스텝 실행. 하나의 요청이 여러 앱에 걸친 작업 체인으로 실행됩니다. "다음 주 출장 준비해줘"라고 하면, 캘린더에서 일정을 확인하고, 항공편을 검색하고, 호텔을 제안하고, 동행자에게 메시지를 보낼 수 있습니다.
멀티턴 대화. "그 레스토랑 금요일 7시에 예약해줘" → "인원은 4명으로 해줘" → "아, 6시로 바꿔줘" 같은 자연스러운 대화 흐름이 가능해집니다. 이전 대화의 맥락을 유지합니다.
1.2조 파라미터가 iPhone에서 돌아가는 방법
Siri 쿼리 처리 3단계 아키텍처
단순 쿼리 · Apple Silicon Neural Engine
🔒 데이터 기기 밖으로 미전송
중간 복잡도 · Apple 서버에서 Gemini 실행
🔒 격리 세션 · 세션 후 데이터 미보존
최고 복잡도 · 데이터 익명화 후 전송
🔒 익명화된 쿼리만 전송
1.2조 파라미터 모델은 당연히 iPhone에서 직접 돌아갈 수 없습니다. Apple의 해법은 3단계 라우팅 아키텍처입니다.
1단계 — 온디바이스(약 60%). 단순한 쿼리("타이머 5분", "날씨 알려줘")는 iPhone의 Apple Silicon Neural Engine에서 처리됩니다. 데이터가 기기를 떠나지 않습니다. 전체 쿼리의 약 60%가 이 단계에서 처리됩니다.
2단계 — Private Cloud Compute. 중간 복잡도의 쿼리는 Apple의 Private Cloud Compute 서버에서 처리됩니다. 여기서 Gemini 모델이 격리된 세션으로 실행됩니다. 데이터는 세션 종료 후 보존되지 않습니다.
3단계 — Google 서버.가장 복잡한 쿼리만 데이터를 익명화한 후 Google 서버로 전송됩니다.
Apple Insider의 분석은 명확합니다. "Google Gemini가 iPhone을 탈취하는 것이 아닙니다." Apple은 UI, 데이터 라우팅, 프라이버시 시행을 완전히 통제합니다. Gemini는 "behind the scenes"에서 추론만 담당합니다.
내부적으로 이 시스템은 "Apple Foundation models v10"이라는 코드명을 갖고 있습니다. Apple 자체 온디바이스 모델과 Google Gemini가 하나의 통합된 AI 경험으로 합쳐진다는 의미입니다.
$15B 검색 딜에 이은 두 번째 역사적 거래
이 파트너십의 배경을 이해하려면 Apple과 Google의 기존 관계를 볼 필요가 있습니다. Google은 iPhone에서 기본 검색 엔진 자리를 유지하기 위해 Apple에 매년 약 $150억 달러를 지불합니다. AI 시대의 Gemini 통합은 이 관계의 두 번째 거대 축이 됩니다.
"외부 AI 모델 통합" 산업 패턴
Apple
Siri
Microsoft
Copilot Cowork
Samsung
Galaxy AI
디바이스 제조사가 외부 AI 모델을 통합하는 추세 — 자체 모델보다 최고의 모델을 빌리는 시대
두 회사의 동기는 다릅니다. Apple은 자체 AI 모델 개발의 지연을 보완합니다. Siri 리메이크는 수차례 연기되었고, 자체 대형 언어 모델은 Google이나 OpenAI 수준에 도달하지 못했습니다. "전부 자체 제작"에서 "최선의 파트너 활용"으로의 전략 전환입니다.
Google은 Gemini의 사용자 기반을 극적으로 확대합니다. iPhone은 전 세계에 약 15억 대가 활성 상태입니다. Gemini가 모든 iPhone의 Siri를 구동하게 되면, Google은 단숨에 세계 최대의 AI 모델 배포 채널을 확보하게 됩니다.
이 패턴은 Apple만의 현상이 아닙니다. Microsoft가 Copilot Cowork에 Anthropic의 Claude를 사용하고, Samsung이 Galaxy에 Google Gemini를 직접 통합한 것과 같은 흐름입니다. 디바이스 제조사가 외부 AI 모델을 자사 제품에 통합하는 추세가 산업 전반에서 나타나고 있습니다. 자체 모델 개발보다 최고의 모델을 빌려오는 것이 더 합리적인 선택이 된 것입니다.
Apple 충성파의 불편한 감정
이 파트너십에 대한 반응은 예상대로 갈립니다.
프라이버시 우려가 가장 큰 이슈입니다. Apple을 선택한 많은 사용자에게 "Google 데이터 수집으로부터의 보호"는 핵심 가치입니다. 그런데 이제 Siri가 Google의 모델을 사용한다면? "Apple이 프라이버시를 팔았다"는 비판이 나옵니다.
Apple의 반론은 아키텍처적입니다. 60%는 온디바이스, 나머지는 Private Cloud Compute, 최소한만 익명화 후 Google 전송. 하지만 "Google이 어떤 형태로든 내 데이터에 관여한다"는 사실 자체가 일부 사용자에게는 불쾌합니다.
기능 환영 진영도 존재합니다. "Siri가 드디어 쓸 만해진다"는 반응입니다. ChatGPT, Claude, Gemini 앱을 별도로 쓰다가, 이제 OS 수준에서 통합된 AI를 쓸 수 있게 된 것을 환영합니다.
시장 분석가 들은 소비자 AI 시장의 권력 집중을 우려합니다. Apple + Google이 합치면 전 세계 스마트폰의 대부분을 장악합니다. Android에도 Gemini, iPhone에도 Gemini. AI 모델 시장에서 Google의 지배력이 하드웨어 채널을 통해 극대화되는 구조입니다.
개발자에게 의미하는 것
iOS 26.4의 새 Siri는 개발자에게 새로운 기회와 과제를 동시에 제공합니다.
기회: Siri의 화면 인식과 멀티스텝 실행이 강화되면, App Intents 프레임워크를 활용한 Siri 통합이 더 유의미해집니다. 이전에는 Siri 통합이 제한적이어서 투자 대비 효과가 낮았지만, 새 Siri는 앱 내의 복잡한 작업도 자연어로 실행할 수 있습니다.
과제: Siri가 앱 간 작업을 직접 처리하기 시작하면, 일부 앱의 존재 이유가 약해질 수 있습니다. 레스토랑 예약 앱, 일정 관리 앱, 이메일 분류 앱 등 "단순 작업 자동화" 카테고리의 앱은 Siri와 직접 경쟁하게 됩니다.
전략적 질문: Apple 생태계에서 개발하는 팀이라면, "Siri가 곧 이것을 할 수 있게 된다면, 우리 앱의 차별화 포인트는 무엇인가?"를 지금 물어야 합니다.
"모든 하드웨어에 외부 AI" 시대
Apple의 Gemini 선택이 상징하는 것은, 하드웨어 기업이 자체 AI를 포기하는 것이 아니라 "최고의 AI를 통합하는 능력"이 새로운 경쟁력이 된다는 것입니다.
Apple은 온디바이스 AI(Neural Engine, Core ML)를 포기하지 않았습니다. 60%의 쿼리가 여전히 기기에서 처리됩니다. 하지만 "Siri가 정말 똑똑해야 하는 순간"에는 Google의 힘을 빌립니다. Microsoft가 Copilot에 Anthropic을 쓰는 것과 같은 논리입니다.
이 패턴이 보편화되면, AI 산업의 가치 사슬이 재편됩니다. 모델 레이어 (Google, Anthropic, OpenAI)는 "OEM 공급자"가 됩니다. 하드웨어/플랫폼 레이어 (Apple, Microsoft, Samsung)는 "최종 고객 접점"을 유지합니다. 사용자는 "어떤 모델이 뒤에서 돌아가는지"를 모르거나 신경 쓰지 않습니다. 중요한 것은 Siri가 잘 작동하는가입니다.
15억 대의 iPhone이 Gemini를 구동하는 순간, AI 모델의 경쟁은 더 이상 벤치마크 숫자가 아니라 배포 채널의 싸움이 됩니다. Apple이 내일 Anthropic으로 전환하면? 사용자는 차이를 느끼지 못할 것입니다. 이것이 모델 상품화의 궁극적 형태이며, Apple × Google 딜의 진정한 의미입니다.