新しいモデル:GPT-4oの登場
2024年5月13日に、新しいフラッグシップモデル「GPT-4o」が発表されました。GPT-4oはこれまでのモデルよりも音声認識の向上がしています。その結果、音声での自然な会話が可能になりました。以下の動画の9:45あたりからご覧ください。人とGPT-4oとの会話が、いかに自然なのかが確認できます。
上記の動画で確認できるようにリアルタイムの音声、テキスト、ビジョンの統合を実現したのが、GPT-4oです。GPT-4レベルのインテリジェンスを提供しながら、速度が速く、テキスト、ビジョン、オーディオの能力が向上しています。
この新しいモデルは、テキスト、音声、画像の組み合わせをリアルタイムで処理できるようになりました。具体的には、以下が特筆すべき点です。
- 音声応答時間
GPT-4oは音声入力に対して、最短で232ミリ秒、平均で320ミリ秒で返答できます。これは人間の会話応答時間とほぼ同じです。 - 多言語対応
英語以外の言語においても、テキストの精度が向上しています。日本語の精度もアップしています。 - 画像理解
画像に対する理解力が高まり、ビジョンタスクにおいても優れた性能を発揮します。
ChatGPT-4oは無料??いつから使える?
ChatGPT 4oは有料ユーザーは既に利用できます。また、近い将来は無料ユーザーでも利用できるようになる予定です。これまでは、無料ユーザーはGPT-3.5までしか利用できませんでしたが、GPT-4oは無料プランでも使用可能となります。無料プランでは、制限時間内の使用回数に制限がありますが、それを超えた場合は自動的にGPT-3.5に切り替わります(ただし、現在は有料プランのPlusユーザーのみが利用可能です)。
ChatGPT-4oのデモで見る注目ポイント
ライブデモで最も注目を集めたのは、大幅に強化されたVoice Mode(音声モード)でした。これまでのVoice Modeとは異なり、ユーザーはより自然な会話を体験できるようになっています。
たとえば、ユーザーは音声アシスタントの会話に割り込んだり、さまざまな音声で話させたりすることができます。デモでは、紙に書いた数式を見せて、数学のテーマで人間とAIが会話しています。AIは直接的に答えを出すのではなく、どうやって数学の公式問題を解けるのか手助けしてくれます。つまり、塾の講師や家庭教師のような使い方も可能です。
他にも、以下のような目的でChatGPT-4oのVoice Modeを活用すると便利でしょう。
- 会議の議事録
- 英会話学習
- 海外旅行先での通訳
ユーザー体験の向上
これまで、音声モードでは3つの異なるモデル(音声認識、インテリジェンス、音声合成)が連携していましたが、GPT-4oではこれがネイティブに統合されています。これにより、遅延が減少し、より没入感のある対話やコラボレーションが可能になりました。また、無料ユーザーにも高いインテリジェンスを提供できるようになり、多くの人がこの技術を活用できるようになりました。
最近では、サインアップなしでChatGPTを利用できるようにし、デスクトップアプリもリリースされました。これにより、どこにいても簡単に利用できるようになっています。また、UIも刷新し、モデルが複雑になる一方で、使い勝手をより自然で簡単にすることを目指しています。
ChatGPT-4oの使い方
まずはChatGPTにログインしてモデルをChatGPT-4oに切り替えてください。
ChatGPTの画面左上から、ChatGPT-4oへと切り替えることができます。使い方は従来のChatGPTと基本的には同じです。ChatGPT Plusに未加入のユーザーも使うことができますが、その場合、利用回数の制限があります。
Voice Modeを使用する際の注意点
大幅に強化されたVoice Modeですが、今のところスマホアプリのみで使用可能です(2024年5月23日時点では、まだ音声の応答速度は遅いので、まだ完全にVoice Modeは導入されていないようです)。ブラウザでVoice Modeを使用する際には、Google Chromeの拡張機能を使用する必要があります。
ChatGPT-4oのAPI料金
ChatGPT-4oのAPI料金は以下のとおりです。
モデル | 入力 | 出力 |
ChatGPT-4o | $5/100万トークン | $15/100万トークン |
ChatGPT-4-Turbo | $15/100万トークン | $30/100万トークン |
ChatGPT-4-32k | $60/100万トークン | $120/100万トークン |
ChatGPT-3.5-Turbo-instruct | $1.5/100万トークン | $2/100万トークン |