기본 제공 AI

Kenji Baheux
Kenji Baheux

게시: 2024년 5월 14일, 최종 업데이트: 2024년 5월 20일

Google에서는 브라우저에 내장된 AI 모델, 전문가 모델, 대규모 언어 모델 (LLM)과 함께 작동하도록 설계된 웹 플랫폼 API 및 브라우저 기능을 개발하고 있습니다. 여기에는 최신 데스크톱 및 노트북 컴퓨터에서 로컬로 실행되도록 설계된 Gemini 계열 LLM의 가장 효율적인 버전인 Gemini Nano가 포함됩니다. 내장된 AI를 사용하면 웹사이트 또는 웹 애플리케이션에서 AI 모델을 배포, 관리 또는 자체 호스팅하지 않고도 AI 기반 작업을 실행할 수 있습니다.

내장 AI의 이점, 구현 계획, 이 기술을 활용하는 방법을 알아보세요.

웹 개발자를 위한 내장 AI의 이점

내장된 AI를 통해 브라우저는 기초 및 전문가 모델을 제공하고 관리합니다.

내장 AI의 이점은 다음과 같습니다.

  • 배포 용이성: 브라우저가 모델을 배포하고 기기 기능을 고려하며 업데이트를 관리합니다. 즉, 네트워크를 통해 대규모 모델을 다운로드하거나 업데이트하는 것은 개발자의 책임이 아닙니다. 스토리지 제거, 런타임 메모리 예산, 게재 비용, 기타 문제를 해결할 필요가 없습니다.
  • 하드웨어 가속 액세스: 브라우저의 AI 런타임은 GPU, NPU 또는 CPU로 대체되는 경우와 관계없이 사용 가능한 하드웨어를 최대한 활용하도록 최적화됩니다. 따라서 앱은 각 기기에서 최상의 성능을 발휘할 수 있습니다.

클라이언트 측 실행의 이점

내장된 AI를 사용하면 AI를 클라이언트 측에서 실행할 수 있으므로 다음과 같은 이점이 있습니다.

  • 민감한 정보의 로컬 처리: 클라이언트 측 AI를 통해 개인 정보 보호 스토리를 개선할 수 있습니다. 예를 들어 민감한 데이터를 다루는 경우 엔드 투 엔드 암호화를 통해 사용자에게 AI 기능을 제공할 수 있습니다.
  • 빠른 사용자 환경: 서버 왕복을 중단하면 거의 즉각적인 결과를 제공할 수 있는 경우도 있습니다. 클라이언트 측 AI는 실행 가능한 기능과 최적화되지 않은 사용자 환경의 차이를 가져올 수 있습니다.
  • AI에 대한 액세스 향상: 사용자 기기는 기능에 더 많이 액세스하는 대신 일부 처리 부하를 부담할 수 있습니다. 예를 들어 프리미엄 AI 기능을 제공하는 경우 클라이언트 측 AI로 이러한 기능을 미리 볼 수 있으므로 잠재고객이 추가 비용 없이 제품의 이점을 확인할 수 있습니다. 이 하이브리드 접근 방식을 사용하면 특히 자주 사용되는 사용자 흐름에서 추론 비용을 관리하는 데도 도움이 됩니다.
  • 오프라인 AI 사용: 사용자는 인터넷에 연결되어 있지 않아도 AI 기능에 액세스할 수 있습니다. 즉, 사이트와 웹 앱이 오프라인 상태이거나 연결 상태가 가변적이어도 정상적으로 작동할 수 있습니다.

하이브리드 AI: 클라이언트 측 및 서버 측

클라이언트 측 AI는 다양한 사용 사례를 처리할 수 있지만 일부 사용 사례에는 서버 측 지원이 필요합니다. 서버 측 AI는 대규모 모델에 적합하며 더 다양한 플랫폼과 기기를 지원할 수 있습니다.

애플리케이션에 다음이 필요한 경우 하이브리드 접근 방식을 고려할 수 있습니다.

  • 복잡성: 접근하기 쉬운 구체적인 사용 사례는 기기 내 AI로 더 쉽게 지원할 수 있습니다. 복잡한 사용 사례의 경우 서버 측 구현을 고려하세요.
  • 탄력성: 기본적으로 서버 측을 사용하고 기기가 오프라인 상태이거나 연결 상태가 좋지 않을 때 기기 내를 사용합니다.
  • 원활한 대체: AI가 내장된 브라우저를 도입하는 데는 시간이 걸리고 일부 모델은 사용할 수 없으며 이전 기기 또는 성능이 낮은 기기는 모든 모델을 최적으로 실행하기 위한 하드웨어 요구사항을 충족하지 못할 수 있습니다. 이러한 사용자에게 서버 측 AI를 제공합니다.

예를 들어 내장 Prompt API (곧 출처 체험판으로 제공)를 사용하는 경우 API는 Windows, macOS, Linux의 데스크톱 Chrome 브라우저 및 Chrome 확장 프로그램에서만 작동합니다. 모든 사용자가 AI 기능의 이점을 누릴 수 있도록 하려면 Firebase AI 로직으로 하이브리드 아키텍처를 설정하세요.

Gemini 모델을 사용하면 Node.js로 백엔드 통합을 빌드할 수 있습니다.

기본 제공 AI 액세스

기본 제공 AI 기능은 주로 Translator API 또는 Summarizer API와 같은 작업 API를 사용하여 액세스할 수 있습니다. Task API는 할당에 가장 적합한 모델에 대해 추론을 실행하도록 설계되었습니다.

Chrome에서 이러한 API는 미세 조정 또는 전문가 모델을 사용하여 Gemini Nano에 대한 추론을 실행하도록 빌드됩니다. 대부분의 최신 기기에서 로컬로 실행되도록 설계된 Gemini Nano는 요약, 표현 바꾸기, 분류와 같은 언어 관련 사용 사례에 가장 적합합니다.

내장 AI를 사용해야 하는 경우

다음은 내장 AI가 개발자와 사용자에게 도움이 되는 몇 가지 방법입니다.

  • AI 기반 콘텐츠 소비: 요약, 번역, 분류, 캐릭터화, 지식 제공자 등을 포함합니다.
  • AI 지원 콘텐츠 제작: 글쓰기 지원, 교정, 문법 수정, 문구 바꾸기 등이 여기에 해당합니다.

Chrome 안정화 버전 및 출처 체험판에서 여러 기본 제공 AI API를 사용할 수 있습니다. 탐색 API 및 초기 단계 API는 사전 프리뷰 프로그램 (EPP) 참여자에게 제공됩니다.

새로운 기능 미리보기

API를 설계하고, API가 사용 사례를 충족하는지 확인하고, 표준화를 위해 다른 브라우저 공급업체와의 논의를 안내하려면 여러분의 의견이 필요합니다.

EPP에 참여하여 초기 단계의 기본 제공 AI 아이디어에 관한 의견을 제공하고 로컬 프로토타이핑을 통해 진행 중인 API를 테스트할 기회를 찾으세요.