2025年1月、OpenAIの「o1」シリーズに代表される“推論型AI”が台頭し、これまでの大規模言語モデル(LLM)とは異なる使い方・学習手法が注目を集めています。この記事ではChatGPT-o1についてわかりやすく解説します。
ChatGPT-o1以降、推論モデルが続々登場

ChatGPT-o1は、回答まで時間がかかる一方、複雑な数式問題や科学的思考が必要なタスクで高い正答率を示すことが大きな特徴です。
また、ChatGPT-o1以降、DeepSeekの「R1」やGoogleの「Gemini 2 Flash Thinking」、モハメド・ビン・ザイード人工知能大学(MBZUAI)が公開した「LlamaV-o1」など、同様の“推論”機能を搭載したモデルが次々と登場しています。
いずれも「Chain-of-Thought(CoT) prompting」や「Self-Prompting」と呼ばれる仕組みを備え、途中で自分自身の推論プロセスを再検証・再構築することで、従来より高度な回答を生み出そうとしています。
推論型AIのコスト問題
しかし、このような推論型AIは、コスト面で課題が指摘されています。
たとえば、OpenAIのo1と小型版o1-miniは、GPT-4o(OpenAIの既存LLM)と比べると12倍ほど高い料金が設定されており(1Mトークンあたり15ドル対1.25ドル)、性能向上分に見合うのかどうか議論の的になっています。

変わりつつある“プロンプト設計”の在り方
それでもo1や類似の推論型AIに強い可能性を感じ、導入を進める企業や個人は少なくありません。決め手となるのが、人間によるプロンプトの書き方を変えるというアプローチです。
AIニュースサービス「Smol」を立ち上げたShawn Wang氏のSubstackでは、元Appleのインターフェースデザイナー(visionOS担当)であるBen Hylak氏によるゲスト投稿が注目を集めました。
Hylak氏はo1を活用する際、従来の「AIをどう動かすかを細かく指示するプロンプト」ではなく、「ブリーフ(brief)」と呼ぶ情報量の多い説明文を用意することを推奨しています。
Hylak氏によると、たとえば一般的なLLMに対しては「あなたは○○の専門家です。ゆっくり考えて回答してください」のように、“思考方法”を指示するケースが多いですが、o1ではむしろ“何をしてほしいのか”(What)にフォーカスし、AI自身の自律的な推論に任せることで、より優れた成果が得られるといいます。
Hylak氏の言葉
「これまでの多くのモデルでは『あなたは優秀なソフトウェアエンジニアです。ゆっくり慎重に考えて答えてください』のように“答え方”を指示してきました。
しかし、o1で成功しているアプローチはこれと真逆です。どうするかではなく、何を望むかを明確に伝え、あとはo1が自律的に手順を立て、推論し、結論に至るのを任せるのです」

詳細な状況説明を最初に提示するのがポイント
具体的には「用途」「期待する出力形式」「あなた(利用者)の職業やゴール」など、より詳細な状況説明を最初に提示しておくことで、o1が“何をすべきか”を自ら判断して精緻な回答を出せるといいます。
Hylak氏は実際に「ハイキングのリストを作りたい」というテーマでo1を試し、そのプロンプトと回答例をブログ上で公開しました。
OpenAI共同創業者でプレジデントのGreg Brockman氏もX(旧Twitter)でこれを紹介し、「o1は従来のチャットモデルとはまったく異なるモデルだ。最高のパフォーマンスを得るには新たな使い方が必要」とコメントしています。
従来型LLMにも効く「自己信頼」プロンプト
さらに、推論型AIに限らず、Claude 3.5 Sonnetなど他の大規模言語モデルでも「プロンプトの書き方」を工夫する余地が大きいと指摘されています。
元Teton.aiエンジニアで、現在は脳神経刺激デバイスのプロジェクト「openFUS」を手掛けるLouis Arge氏は「LLMはユーザーが指示したプロンプトよりも、自分自身で生成した“内部プロンプト”を信頼する傾向がある」とSNSで述べています。
彼は「まずLLMに挑発的な文面を使い、“君の回答は物足りない、もっと大胆になってほしい”と促したうえで、LLM自身が“じゃあこういう方針でやろう”と決めたプロンプトを再帰的に実行させる」ことで、より踏み込んだ回答を引き出す手法を紹介しています。
では、この出力を60点とします。これを60点とした時に100点とはどのようなものですか? 100点にするために足りないものを列挙した後に、100点の答えを生成してください
まとめ:依然として重要な“プロンプトエンジニアリング”スキル

こうした事例を踏まえると、推論型AIの時代が到来したといっても、プロンプトエンジニアリングの役割はますます重要になると考えられます。自律的な思考プロセスを活かすも殺すも、最初の「問題設定」や「詳細な背景説明」が鍵を握るからです。
o1のような推論モデルを活用して、より高度なアウトプットを得るためには、「どのようなゴールに向かっているのか」「そのためにAIにどんな思考ステップを踏んでほしいのか」を余すところなく伝えることが肝要となります。
さらに、CoTやSelf-Promptingによる推論フローに合わせ、「人間が途中で口出しをしすぎない」「AI自身に計画を立案させる」など、これまでのLLMとは異なるプロンプトの組み立て方も模索すべきでしょう。