Opera One DeveloperでローカルAIモデルを使用する方法

Outbyte Driver Updater
Opera One DeveloperでローカルAIモデルを使用する方法

多くのブラウザが AI 機能をブラウザに統合している中、Opera はローカル AI モデルを統合した最初のブラウザになりました。Opera は、約 50 種類のモデル ファミリから 150 種類を超えるローカル大規模言語モデル (LLM) バリアントの実験的なサポートを Opera One ブラウザに追加しています。

言語モデルはローカルなので、ユーザーは自分のデータが LLM のサーバーに送信されることを心配する必要がありません。これは AI を使用するプライベートかつ安全な方法です。

ローカル LLM モデルを使用するには、使用するバージョンに応じて、コンピューターに 2 ~ 10 GB の空き容量が必要です。サポートされている LLM には、Meta の Llama、Microsoft の Phi-2、Google の Gemma、Vicuna、Mistral AI の Mixtral などがあります。Opera の Aria AI の代わりにこれらの言語モデルを使用し、いつでも Aria AI に切り替えることができます。

この機能は現在、Opera One の開発者ストリームでのみ利用可能です。Opera One Developer でローカル AI モデルを有効化して使用する方法は次のとおりです。

Opera One Developerをダウンロード

Opera One Developer をすでにお持ちの場合は、このセクションをスキップして、ローカル LLM モデルの使用に直接進んでください。

  • Opera One Developer をダウンロードするには、このリンクにアクセスしてください。下にスクロールして、Opera One Developer タイルの「今すぐダウンロード」をクリックします。
  • ファイルをダウンロードしたら開き、インストーラーを実行します。
  • 「同意してインストール」をクリックし、画面の指示に従ってブラウザをインストールします。

ローカルAIモデルの設定

  • ブラウザがダウンロードされたら、左側のサイドバーから「Aria AI」アイコンをクリックします。
  • 「続行」をクリックして続行します。
  • Aria を初めて使用する場合は、無料の Opera アカウントに登録する必要があります。Opera アカウントを作成するには、メール アドレス、または Apple、Facebook、または Google アカウントを使用できます。
  • アカウントを作成すると、Aria とチャットできるようになります。
  • ここで、Aria パネルに「ローカル AI モデルを選択」オプションが表示されます。それをクリックします。
  • ドロップダウンメニューから「設定へ移動」を選択します。
  • 「チャットでローカル AI を有効にする」のトグルが有効になっていることを確認します。
  • 次に、クリックまたは検索して、ローカルで使用するためにダウンロードするモデルを選択します。前述のように、Opera はさまざまなバリエーションを持つ約 50 のモデル ファミリのサポートを実装しており、合計は 150 になります。
  • そのため、Google の Gemma などの一部のモデルをクリックすると、4 つの異なるバリエーションが表示されます。使用するモデルをダウンロードします。このガイドでは、Gemma の 2B Text モデルをダウンロードします。右側の [ダウンロード] ボタンをクリックします。ダウンロードする前に、モデルに必要な PC の容量を確認できます。
  • モデルのサイズとインターネット接続によっては、ダウンロードに時間がかかる場合があります。ダウンロードの進行状況は横に表示されます。

ローカルAIモデルの使用

  • モデルがダウンロードされたら、パネルの左上にある「メニュー」アイコンをクリックします。
  • 表示されるメニューから「新しいチャット」を選択します。
  • もう一度、上部の「ローカル AI モデルを選択」オプションをクリックし、ドロップダウン メニューからダウンロードしたモデル (この場合は Gemma) を選択します。
  • これで、選択したローカル AI モデルに切り替わります。プロンプト バーにプロンプ​​トを入力して AI に送信し、ローカルでのやり取りを開始します。
  • ローカル AI モデルとのチャットは、Aria とのチャットと同様に、チャット履歴で確認できます。整理しやすいようにチャットの名前を変更することもできます。
  • 同様に、複数のローカル AI モデルをダウンロードして使用することもできますが、各モデルにはコンピューター上で 2~10 GB 程度のスペースが必要になることに注意してください。
  • PC からモデルを削除するには、以前にモデルをダウンロードした場所と同じ設定 (つまり、Aria> Settings> Local AI Models> )に移動します[Downloaded Model]。次に、「削除」ボタンをクリックします。

Ariaに戻る

  • Aria に戻るには、AI と新しいチャットを開始するだけです。右上隅の「+」アイコンをクリックします。
  • 新しいチャットは Aria 自体から開始されます。

Opera One ブラウザでローカル AI モデルを使用できることは、セキュリティとプライバシーの観点からだけでなく、非常にエキサイティングです。初期段階ではすべてが非常にシンプルですが、将来の潜在的なケースは非常にエキサイティングです。ローカル AI を備えたブラウザは、ユーザーの過去の入力をすべてのデータとともに使用できることを意味する可能性があります。それはどれほどエキサイティングなことでしょう。Opera のチームはその可能性を模索しています。

しかし、将来的な可能性がなくても、データや AI とのチャットがサーバー上に保存されることを心配しているユーザーにとって、ローカル AI は素晴らしい動きです。コーディング用の Llama、優れた推論機能の Phi-2、テキスト生成や質問への回答などのタスク用の Mixtral など、検討できる優れた LLM がいくつかあります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です