Apple は「It’s Glowtime」の時期に、最新の iPhone ラインアップを発表しました。iPhone 16 および 16 Pro モデルは、Apple Intelligence のために一から作られたものとして Apple によって販売されています。今年 6 月の年次 WWDC カンファレンスでこのテクノロジー大手が発表した Apple Intelligence についてのメモを見逃した方のために説明すると、これは人工知能に関する Apple の見解です。
しかし、同社は都合よく WWDC で 1 つの機能を省略しましたが、それは当然のことでした。なぜなら、それは iPhone 16 ラインナップに予定されているハードウェアの変更に関係しているからです。Visual Intelligence は iPhone に導入されつつあり、Android で Google Lens を使用できるのと似ていますが、前者は人工知能を搭載しています。これは、Google の Gemini Live や OpenAI の ChatGPT-4o Advanced Mode (どちらもまだ利用できません) のマルチモーダル (画像/動画) 入力機能に似ています。しかし、Visual Intelligence は入力として画像しか受け付けないようです。
これは、iPhone 16 シリーズの新しいカメラコントロールボタンを長押しすることで起動します。
Visual Intelligence に何でも質問できます。たとえば、レストランにカメラを向けると、Visual Intelligence がレストランの営業時間、評価、メニューを確認したり予約したりするためのオプションをすぐに表示します。
同様に、イベントのポスターにカメラを向けると、自動的にカレンダーに追加されます。特に、Google の Gemini は Android デバイスでも同様にサポートし、さらに一歩進んで、その日に予定があるかどうかを通知してくれます。
これらはすべて、デバイス上のインテリジェンスと、画像を保存しない Apple サービスの組み合わせによって実現されています。さらに、Visual Intelligence は、Google や ChatGPT などのサードパーティ サービスへのゲートウェイとしても機能します。インターフェイスには、「検索」と「質問」の 2 つのボタンが表示されます。
検索機能を使用すると、画面に表示されているもの、たとえば見つけた購入したい自転車について、Google に何でも質問できます。質問機能を使用すると、ChatGPT を呼び出して、メモなどについてヘルプを求めることができます。情報は、サードパーティのツールを使用することを選択した場合にのみ、そのツールと共有されます。
この機能はすぐには利用できず、今年後半にリリースされる予定ですが、リリース日についての具体的な情報はまだありません。また、Craig Federighi 氏は「今年後半にカメラコントロールに搭載される」と明言しているため、Apple Intelligence をサポートする古い iPhone にはこの機能は搭載されないようです。
コメントを残す