組み込みの AI

Kenji Baheux
Kenji Baheux
Alexandra Klepper
Alexandra Klepper

ウェブ上で AI モデルを使用して特徴を構築する場合、大規模なモデルにはサーバーサイド ソリューションを利用することがよくあります。これは、生成 AI に特に当てはまります。生成 AI ���は、小さなモデルでも、ウェブページのサイズの中央値の約 1, 000 倍の大きさになります。モデルが数十メガバイトから数百メガバイトまでにわたる他の AI ユースケースにも当てはまります。

これらのモデルはウェブサイト間で共有されないため、各サイトがページの読み込み時にモデルをダウンロードする必要があります。これはデベロッパーやユーザーにとって 実用的ではないソリューションであり

サーバーサイド AI は大規模モデルに最適な選択肢ですが、オンデバイス アプローチとハイブリッド アプローチには独自の魅力的な利点があります。これらのアプローチを実現するには、モデルのサイズと提供方法に対応する必要があります。

そのため Google では、大規模言語モデル(LLM)など�� AI モデルをブラウザに直接統合するように設計された、ウェブ プラットフォーム API とブラウザ機能を開発しています。これには、Gemini の LLM ファミリーの最も効率的なバージョンである Gemini Nano が含まれます。これは、最新のデスクトップ パソコンとノートパソコンでローカルに実行するように設計されたものです。組み込みの AI により、ウェブサイトまたはウェブ アプリケーションで独自の AI モデルのデプロイや管理を行わずに、AI を活用したタスクを実行できます。

組み込み AI のメリット、実装計画、このテクノロジーの活用方法について説明します。

早期プレビュー版を入手

API を形成し、確実にユースケースを確実に満たすため、また標準化のために他のブラウザ ベンダーとの協議の際に参考となる情報として、皆様のご意見が必要です。

早期プレビュー プログラムに参加して、初期段階の組み込み AI のアイデアに関するフィードバックを提供し、ローカル プロトタイピングで開発中の API をテストする機会を見つけます。

Chrome AI デベロッパー向け公開お知らせグループに参加すると、新しい API が利用可能になったときに通知を受け取ることができます。

組み込み AI がウェブ デベロッパーにもたらすメリット

AI が組み込まれたブラウザは、基盤とエキスパート モデルを提供し、管理します。

オンデバイス AI で自分で行う場合と、組み込み AI には次のよ��なメリットがあります。

  • デプロイの容易さ: ブラウザがモデルを配布する際に、デバイスの機能が考慮され、モデルの更新を管理します。つまり、ネットワ����経由で大規模�����デルをダウンロードまたは更新する必要はありません。ストレージ エビクション、ランタイム メモリ バジェット、サービス費用などの課題を解決する必要はありません。
  • ハードウェア アクセラレーションへのアクセス: ブラウザの AI ランタイムは、使用可能なハードウェア(GPU、NPU、CPU へのフォールバックなど)を最大限に活用するように最適化されています。その結果、各デバイスでアプリのパフォーマンスを最大限に高めることができます。

オンデバイスで実行するメリット

組み込みの AI アプローチを使用すると、デバイス上で AI タスクを実行することが容易になり、次のようなメリットがあります。

  • センシティブ データのローカル処理: オンデバイス AI によってプライバシーに関する状況を改善できます。たとえば、センシティブ データを扱う場合、エンドツーエンドの暗号化を使用して AI 機能をユーザーに提供できます。
  • 快適なユーザー エクスペリエンス: サーバーとのラウンドトリップをなくすことで、ほぼ瞬時に結果を提供できる場合もあります。オンデバイス AI は、実行可能な機能と最適でないユーザー エクスペリエンスの分かれ目となる可能性があります。
  • AI へのアクセスの向上: ユーザーのデバイスは、より多くの機能にアクセスできる代わりに、いくらかの処理負荷を負担できます。たとえば、プレミアム AI 機能を提供している場合、オンデバイス AI でこれらの機能をプレビューできます。これにより、見込み顧客は追加費用なしでプロダクトのメリットを理解できます。このハイブリッド アプローチは、特に頻繁に使用されるユーザーフローでの推論コストの管理にも役立ちます。
  • オフラインでの AI の使用: ユーザーは、インターネットに接続されていない場合でも AI 機能にアクセスできます。つまり、サイトとウェブアプリはオフラインでも接続が可変でも期待どおりに動作します。

ハイブリッド AI: オンデバイスとサーバーサイド

オンデバイス AI はさまざまなユースケースを処理できますが、サーバー側のサポートが必要な特定のユースケースもあります。

たとえば、より大きなモデルを使用したり、より幅広いプラットフォームやデバイスをサポートしたりする必要がある場合があります。

以下に応じて、ハイブリッド アプローチを検討できます。

  • 複雑さ: 具体的で親しみやすいユースケースであれば、オンデバイス AI によるサポートが容易になります。複雑なユースケースの場合は、サーバーサイドの実装を検討してください。
  • 復元力: デフォルトでサーバーサイドを使用し、デバイスがオフラインの場合や接続が不安定な場合はデバイス上を使用します。
  • 適切なフォールバック: AI が組み込まれたブラウザの導入には時間がかかり、一部のモデルが利用できない可能性があります。また、古いデバイスや性能の低いデバイスは、すべてのモデルを最適に実行するためのハードウェア要件を満たしていない可能性があります。このようなユーザーにサーバーサイド AI を提供します。

Gemini モデルでは、バックエンドの統合(PythonGoNode.js、または REST)を使用するか、新しいウェブ用 Google AI クライアント SDK を使用してウェブ アプリケーションに実装できます。

ブラウザ アーキテクチャと API

Google は、Chrome の組み込み AI をサポートするために、基盤モデルとエキスパート モデルにアクセスしてデバイス上で実行するためのインフラストラクチャを作成しました。このインフラストラクチャはすでに文書作成サポートなどの革新的なブラウザ機能を実現しており、まもなくオンデバイス AI 用の API も強化される予定です。

組み込みの AI 機能には、主に Translation API や要約 API などのタスク API を使用します。Task API は、割り当てに最適なモデルに対して推論を実行するように設計されています。

Chrome では、これらの API は、ファインチューニングまたはエキスパートモデルで Gemini Nano に対して推論を実行するように構築されています。ほとんどの最新のデバイスでローカルで実行するように設計された Gemini Nano は、要約、言い換え、分類など、言語関連のユースケースに最適です。

また、ローカルでテストして追加のユースケースを共有できるように、探索的 API を提供する予定です。

たとえば、次のような情報を提供します。

  • Prompt API: 自然言語で表現された任意のタスクを組み込みの大規模言語モデル(Chrome の Gemini Nano)に送信します。
  • ファインチューニング(LoRA)API: 低ランク適応のファインチューニングでモデルの重みを調整し、タスクに対する組み込み LLM のパフォーマンスを改善します。
この図は、ウェブサイトやアプリでタスク API と探索的ウェブ プラットフォーム API を使用して、Chrome に組み込まれたモデルにアクセスする方法を示しています。

組み込み AI を使用する場合

組み込み AI には、次のようなメリットがあります。

  • AI で強化されたコンテンツの利用: 要約、翻訳、コンテンツに関する質問への回答、分類、特徴付けなど。
  • AI を活用したコンテンツの作成: 文章作成支援、校正、文法の訂正、言い換えなど。

次のステップ

早期プレビュー プログラムに参加して、初期段階の組み込み AI API をお試しください。

それまでの間、Google AI JavaScript SDK のクイックスタートで、ウェブサイトやウェブアプリとともに Google のサーバーで Gemini Pro を使用する方法をご確認ください。