実験
10 個の実践的なコーディングタスク(開発者が実際に毎日行うような種類のもの)を用意し、GPT-5.4 と Claude Opus 4.6 の両方に全く同じプロンプトを送信しました。システムプロンプト、コンテキスト、評価基準もすべて同一に設定しました。
合成ベンチマークではなく、厳選された例でもありません。以下の 3 つの側面でスコア化された実際のタスクです。
- 正確性(修正なしで動作するか?)
- コード品質(可読性、types、エラー処理、エッジケース)
- 効率性(tokens 使用量、レスポンス時間、必要なフォローアッププロンプトの数)
各項目は 1-10 でスコア化されます。1 タスクあたりの最大可能スコアは 30 です。
モデルには、標準価格のそれぞれの API を介してアクセスしました。GPT-5.4 は 100万 tokens あたり $2.50/$15、Claude Opus 4.6 は 100万 tokens あたり $15/$75 です。
以下に 10 個のタスクと、実際に起こったことを示します。
タスク 1: REST API エンドポイントの構築
プロンプト: "Express.js と TypeScript を使用して POST /api/users エンドポイントを作成してください。メール形式とパスワードの強度(最低 8 文字、大文字 1 つ、数字 1 つ)を検証してください。bcrypt でパスワードをハッシュ化します。Prisma を介して PostgreSQL に保存してください。パスワードフィールドを除いたユーザー情報を返します。重複するメールアドレスは 409 ステータスで処理してください。"
GPT-5.4 の結果
クリーンでプロダクション利用可能なコードです。Zod によるバリデーションスキーマは正確でした。bcrypt のハッシュ化には適切なソルトラウンド定数が使用されていました。Prisma クエリでは、レスポンスオブジェクトからパスワードを削除するのではなく、データベースレベルでパスワードフィールドを除外するために select を使用していました。これは細部ですが重要なセキュリティプラクティスです。TypeScript の types も厳密でした。
Claude Opus 4.6 の結果
こちらもクリーンで正確です。同様の Zod バリデーションアプローチを使用しましたが、エンドポイントに rate limiting ミドルウェアを追加し、その理由を説明するコメントを含めていました。パスワードの除外には Prisma の omit 機能を使用しました。Prisma の一意性制約違反に対する特定のエラータイプを含む try/catch を追加しました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 10 | 10 |
| コード品質 | 9 | 9 |
| 効率性 | 9 | 8 |
| 合計 | 28 | 27 |
勝者: GPT-5.4(速度と簡潔さでわずかにリード)
両方の出力とも優れていました。GPT-5.4 はより高速で、使用 tokens も少なかったです。Opus は要求されていない rate limiting ミドルウェアを追加しました。これは有用ですが、指示にはありませんでした。明確に定義された API タスクにおいて、これらのモデルは実質的に互換性があります。
タスク 2: React コンポーネントの構築
プロンプト: "DataTable という名前の React コンポーネントを作成してください。汎用的な型付きデータを受け入れ、ソート可能な列、ページネーション(クライアントサイド)、検索フィルター、チェックボックスによる行選択をサポートします。TypeScript generics を使用してください。UI ライブラリは使用せず、CSS modules を備えた HTML/CSS のみを使用します。適切な ARIA 属性を含めてください。"
GPT-5.4 の結果
適切に構造化された汎用コンポーネントが提供されました。TypeScript generics は列定義とデータ型に正しく使用されていました。ソートロジックはクリーンで、抽出されたカスタム useSortable フックが使用されていました。ページネーションはパフォーマンスのために useMemo を使用していました。ARIA 属性は正確で、role="grid"、ソート可能なヘッダーの aria-sort、チェックボックスの aria-selected が含まれていました。
Claude Opus 4.6 の結果
同様の構造ですが、いくつか違いがありました。Opus はソート、ページネーション、フィルタリングロジックをカプセル化した useDataTable フックを作成しました。これはよりクリーンな分離ですが、抽象化が進んでいます。TypeScript generics も同様に正確でした。ヘッダーセルの aria-sort が欠落していました。CSS module には、モバイルでカードビューに切り替わるレスポンシブレイアウトが含まれていました。これは要求されていませんでしたが、配慮の行き届いた追加機能でした。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 10 | 9 |
| コード品質 | 9 | 9 |
| 効率性 | 9 | 8 |
| 合計 | 28 | 26 |
勝者: GPT-5.4
GPT-5.4 の ARIA 実装はより完全でした。これはアプリケーション全体で使用されるコンポーネントにとって重要です。MindStudio の比較で指摘されているように、GPT-5.4 は React コンポーネントや TypeScript インターフェースを含むボイラープレートの生成に優れています。
タスク 3: 複雑な SQL クエリの作成
プロンプト: "過去 12 ヶ月間に少なくとも 3 回の注文を行った顧客のうち、生涯価値(総注文額)の上位 10 名を返す PostgreSQL クエリを記述してください。直近の注文日、平均注文額、および前の 12 ヶ月間と比較した支出の変化率を含めてください。可読性のために CTEs を使用してください。"
GPT-5.4 の結果
3 つの CTEs を使用しました。1 つは現期間の集計用、1 つは前期間の集計用、もう 1 つは変化率計算用です。クリーンで正確、適切にフォーマットされていました。前期間のデータがない顧客を処理するために COALESCE を使用しました。インデックスヒントのコメントが追加されていました。
Claude Opus 4.6 の結果
わずかに異なる構造の 4 つの CTEs を使用しました。相関サブクエリを避けるために「最終注文日」の計算を独自の CTE に分離しました。変化率の計算でゼロ除算を防ぐために NULLIF を追加しました。これは GPT-5.4 が見落とした実際のエッジケースです。コメントブロックにウィンドウ関数の代替案が含まれていました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 9 | 10 |
| コード品質 | 8 | 9 |
| 効率性 | 9 | 8 |
| 合計 | 26 | 27 |
勝者: Claude Opus 4.6
ゼロ除算のエッジケースが差別化要因となりました。プロダクション環境の SQL では、この種のバグはサイレントなデータ破損を引き起こします。Opus は現実世界のデータパイプラインで重要なエッジケースを一貫して浮き彫りにします。
タスク 4: レースコンディションのデバッグ
プロンプト: 断続的なテスト失敗が発生している Node.js アプリケーションから 3 つのファイル(合計約 200 行)を提供しました。バグは、同時キャッシュミスが重複したデータベースクエリと不整合な状態を引き起こす可能性があるキャッシュレイヤーのレースコンディションでした。"バグを見つけ、なぜ断続的にしか発生しないのかを説明し、修正案を提示してください。"
GPT-5.4 の結果
正しいキャッシュミスのコードパスを特定しました。async-mutex を使用したミューテックスロックの追加を提案しました。修正は正確でしたが、根本原因ではなく症状を処理していました。すべてのキャッシュアクセスをシリアル化するため、負荷が高い状況ではパフォーマンスが低下します。
Claude Opus 4.6 の結果
同じコードパスを特定しましたが、状態の不整合を 2 つ目の問題まで追跡しました。キャッシュの更新がアトミックではありませんでした。読み取りチェックと書き込みの間に、別のリクエストが割り込むことができるウィンドウが存在していました。Opus はグローバルミューテックスではなく、「single-flight」パターン(同時に発生する同一のリクエストを結合する)を提案しました。この修正はより外科的であり、競合しないキャッシュキーの並行性を維持しました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 7 | 10 |
| コード品質 | 7 | 9 |
| 効率性 | 8 | 8 |
| 合計 | 22 | 27 |
勝者: Claude Opus 4.6
明らかな差が出ました。Opus は並行性モデルを深く理解しており、的を絞った修正を提案できました。これは、まさにこのような現実世界のバグ解決をテストする SWE-bench Verified での Claude Opus 4.6 のスコア 80.8% と一致します。
タスク 5: コードレビュー
プロンプト: 新しい支払い処理モジュールを追加する 350 行の pull request を提供しました。"この PR にバグ、セキュリティの問題、パフォーマンスの問題、コード品質の問題がないかレビューしてください。発見事項を重要度順に並べてください。"
GPT-5.4 の結果
5 つの問題を発見しました。支払いレスポンスの null チェックの欠落、処理されていない promise 拒否、設定可能にすべきハードコードされたタイムアウト、べき等キーの欠落、およびマジックナンバーを定数に抽出する提案です。重要度別に整理され、明確で実行可能でした。
Claude Opus 4.6 の結果
8 つの問題を発見しました。GPT-5.4 が見つけた 5 つに加えて、さらに 3 つ追加されました。金額検証における TOCTOU(time-of-check-time-of-use)の脆弱性、内部スタックトレースを公開するエラーレスポンスによる潜在的な情報漏洩、および最初のリクエストは成功したがレスポンスが失われた場合にリトライロジックが二重請求を引き起こす可能性がある微妙な問題です。各発見事項には特定の行番号と修正案が含まれていました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 8 | 10 |
| コード品質 | 8 | 10 |
| 効率性 | 9 | 8 |
| 合計 | 25 | 28 |
勝者: Claude Opus 4.6
追加された 3 つの発見事項はすべてセキュリティ上重要でした。二重請求のバグだけでも、企業に多大な損失と評判の低下をもたらす可能性があります。Opus の MRCR v2 における 76%(複数ファイル推論)は、複雑なモジュールのより優れたコードレビューに直接結びついています。
タスク 6: テストスイートの作成
プロンプト: "Vitest を使用して、この認証ミドルウェアの包括的なテストを記述してください。有効な tokens、期限切れの tokens、不正な形式の tokens、欠落している認証ヘッダー、取り消された tokens、rate limiting、および並行認証リクエストをカバーしてください。" ミドルウェアのソースファイル(約 120 行)を提供しました。
GPT-5.4 の結果
クリーンな describe ブロックに整理された 18 個のテストケースを生成しました。プロンプトのすべてのシナリオがカバーされていました。さらに 3 つのエッジケース(空文字列の token、誤ったアルゴリズムの token、空白のみの認証ヘッダー)が追加されました。モックは vi.mock を使用して適切に構造化されていました。テストの説明は明確で、"should X when Y" パターンに従っていました。
Claude Opus 4.6 の結果
15 個のテストケースを生成しました。プロンプトにあるすべてのシナリオがカバーされました。テスト構造は、異なるプロパティを持つ tokens を作成するためのヘルパーファクトリを使用していました。これは巧妙ですが、複雑さが増していました。明示的に要求された「並行認証リクエスト」のテストが欠落していました。モックはよりクリーンでしたが、テストの数は少なかったです。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 10 | 8 |
| コード品質 | 9 | 9 |
| 効率性 | 9 | 8 |
| 合計 | 28 | 25 |
勝者: GPT-5.4
GPT-5.4 はプロンプトにより忠実に従い、意味のあるエッジケースを追加しました。複数の比較で指摘されているように、GPT-5.4 のテスト生成は最高レベルであり、強力なエッジケースをカバーする包括的なスイートを作成します。
タスク 7: モノリシックモジュールのリファクタリング
プロンプト: ユーザー管理(登録、認証、プロファイル更新、パスワードリセット、メール通知)をすべて 1 つのファイルで処理する 500 行の Python モジュールを提供しました。"SOLID 原則に従って、これをクリーンなモジュール構造にリファクタリングしてください。既存のパブリック API とのバックワード互換性を維持してください。"
GPT-5.4 の結果
auth.py、registration.py、profile.py、password.py、notifications.py の 5 つのモジュールに分割されました。バックワード互換性のために元のパブリック関数を再エクスポートする __init__.py を追加しました。クリーンな分離で、各モジュールは自己完結型でした。
しかし、registration.py と notifications.py の間の循環参照の更新を見落としていました。登録時にウェルカムメールを送信し、通知モジュールはユーザーデータへの参照を必要としていました。このコードはインポート時にクラッシュします。
Claude Opus 4.6 の結果
同じ内訳に共有データクラス用の types.py を加えた 6 つのモジュールに分割しました。重要なのは、循環参照の問題を特定し、イベントベースのパターンを導入することで解決したことです。登録時に "user_created" イベントを発行し、通知モジュールがそれをサブスクライブします。バックワード互換性のある __init__.py のアプローチは同一でした。
Opus はまた、各モジュールの先頭に何が属し、何が属さないかを説明する短いコメントを追加しました。これは将来の開発者のためのガイドとして機能します。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 6 | 10 |
| コード品質 | 8 | 10 |
| 効率性 | 8 | 7 |
| 合計 | 22 | 27 |
勝者: Claude Opus 4.6
循環参照のバグはプロダクション環境での失敗を引き起こしたでしょう。これは、Opus が得意とする複数ファイルの推論の典型です。Opus はコードを生成する前に、ファイル間の依存関係とアーキテクチャ上の影響を理解しています。
タスク 8: 技術ドキュメントの作成
プロンプト: "この支払い処理 SDK の API ドキュメントを記述してください。概要、認証、rate limits、エラーコード、リクエスト/レスポンス例を含む 5 つのエンドポイントの説明、webhook セクション、および v1 から v2 への移行ガイドを含めてください。" SDK のソースコードを提供しました。
GPT-5.4 の結果
要求されたすべてのセクションを網羅した包括的なドキュメントです。エンドポイントの説明は、curl の例とレスポンススキーマを含めて詳細でした。エラーコードセクションはテーブルとして適切に整理されていました。移行ガイドは、変更前と変更後のコード例があり、明確でした。クリーンな markdown 形式でした。
Claude Opus 4.6 の結果
こちらも包括的でしたが、わずかに異なる構造でした。詳細なドキュメントの前に「クイックスタート」セクションを設けていました。これは開発者ドキュメントとして優れたパターンです。webhook セクションはより詳細で、リトライ動作、署名検証コード、テストガイダンスが含まれていました。移行ガイドにはソースコードになかった廃止スケジュールが含まれていました。これはバージョニングパターンから推測したものです。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 9 | 9 |
| コード品質 | 9 | 9 |
| 効率性 | 9 | 8 |
| 合計 | 27 | 26 |
勝者: 引き分け(効率性で GPT-5.4 が 1 ポイントリード)
両者とも優れたドキュメントを作成しました。品質の差はごくわずかです。GPT-5.4 の方がわずかに高速でした。ドキュメント作成タスクについては、どちらのモデルもうまく機能します。これは、開発者のレポートにある、ドキュメントの品質は最先端モデル間で同等であるという内容と一致します。
タスク 9: システムアーキテクチャの設計
プロンプト: "10,000 人の同時実行ユーザーをサポートするリアルタイム共同ドキュメントエディタのアーキテクチャを設計してください。データモデル、競合解消戦略(CRDTs vs OT)、WebSocket インフラストラクチャ、ストレージレイヤー、プレゼンスシステム、およびデプロイトポロジーをカバーしてください。Mermaid 構文で図を提供してください。"
GPT-5.4 の結果
中央サーバーを持つ OT (Operational Transformation) を選択しました。プレゼンス用に Redis、ドキュメント保存用に PostgreSQL、ロードバランサー背後の WebSocket ゲートウェイを使用した合理的なアーキテクチャです。Mermaid の図はクリーンでした。分析は有能でしたが、標準的なプレイブックに従っており、この特定の規模における CRDTs と OT のトレードオフを深く分析することはありませんでした。
Claude Opus 4.6 の結果
まずドキュメントモデル(リッチテキストかプレーンテキストか構造化データか)について質問から始め、私は「リッチテキスト」と答えました。その後、OT よりも CRDTs(具体的には Yjs)を推奨し、なぜこの規模では CRDTs が優れているのかを詳しく説明しました。中央シーケンサーのない結果整合性により、単一障害点が排除されます。
アーキテクチャには斬新な詳細が含まれていました。CRDT のマージ操作を処理し、WebSocket ターミネータと状態永続化レイヤーの両方として機能する「ドキュメントゲートウェイ」レイヤーです。Mermaid の図にはプロトコルのアノテーションが付いたデータフローの矢印が含まれていました。デプロイメントセクションでは、ホットパーティションに関する理由とともに、特定のパーティショニング戦略(ドキュメント ID によるシャード)を推奨しました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 8 | 10 |
| コード品質 | 7 | 10 |
| 効率性 | 8 | 7 |
| 合計 | 23 | 27 |
勝者: Claude Opus 4.6
アーキテクチャ設計こそ、これらのモデル間の推論の深さの差が最も顕著に現れる場所です。Opus は出力を生成する前により明確に問題について推論し、エッジケースを検討し、要件が曖昧な場合には質問を投げかけます。
タスク 10: DevOps デプロイスクリプトの記述
プロンプト: "以下の GitHub Actions ワークフローを記述してください:Docker イメージをビルドし、テストを実行し、ECR にプッシュし、ECS Fargate にブルーグリーンデプロイメントでデプロイし、新しいデプロイに対してスモークテストを実行し、スモークテストが失敗した場合は自動的にロールバックします。AWS 認証には OIDC を使用し、ハードコードされた認証情報は使用しないでください。"
GPT-5.4 の結果
リクエストされたすべてのステップを含む完全なワークフローファイルです。ロール ARN を使用した aws-actions/configure-aws-credentials による OIDC 設定は正確でした。ブルーグリーンデプロイメントには CODE_DEPLOY デプロイメントコントローラーを使用した ECS サービス更新が使用されました。スモークテストは curl ベースのヘルスチェックでした。ロールバックはスモークテストの終了コードによってトリガーされました。コメントも適切で、プロダクション対応でした。
Claude Opus 4.6 の結果
こちらも完全で正確です。同じ OIDC アプローチを使用しました。主な違いはスモークテストにありました。Opus はヘルスエンドポイントをチェックするだけでなく、/version エンドポイントを確認してデプロイが正しいバージョンを提供していることを検証する、より徹底的なテストを作成しました。ロールバックには Slack 通知ステップが含まれていました。しかし、ワークフローは著しく冗長で、同様の機能に対して行数が 40% 多くなっていました。
スコア
| 評価項目 | GPT-5.4 | Opus 4.6 |
|---|---|---|
| 正確性 | 10 | 10 |
| コード品質 | 9 | 9 |
| 効率性 | 9 | 7 |
| 合計 | 28 | 26 |
勝者: GPT-5.4
DevOps スクリプティングにおいては、GPT-5.4 の簡潔さが利点となります。ワークフローの維持や修正が容易です。Opus の追加要素(Slack 通知、バージョン検証)は素晴らしいですが、要求されておらず、複雑さを増していました。GPT-5.4 は Terminal-bench (75.1% vs 65.4%) でリードしており、この優位性はターミナル指向のタスクに現れています。
最終スコアボード
| タスク | GPT-5.4 | Opus 4.6 | 勝者 |
|---|---|---|---|
| 1. REST API エンドポイント | 28 | 27 | GPT-5.4 |
| 2. React コンポーネント | 28 | 26 | GPT-5.4 |
| 3. SQL クエリ | 26 | 27 | Opus 4.6 |
| 4. レースコンディションのデバッグ | 22 | 27 | Opus 4.6 |
| 5. コードレビュー | 25 | 28 | Opus 4.6 |
| 6. テストスイート | 28 | 25 | GPT-5.4 |
| 7. モジュールのリファクタリング | 22 | 27 | Opus 4.6 |
| 8. ドキュメント作成 | 27 | 26 | 引き分け |
| 9. アーキテクチャ設計 | 23 | 27 | Opus 4.6 |
| 10. DevOps スクリプト | 28 | 26 | GPT-5.4 |
| 合計 | 257 | 266 | Opus 4.6 |
最終結果: Claude Opus 4.6 が 266 対 257 で勝利。
しかし、合計スコアは本当の物語を隠しています。
スコアよりも重要なパターン
それぞれのモデルがどこで勝っているかを見てください。
GPT-5.4 の勝利項目:
- API エンドポイント(明確に定義され、範囲が限定されたタスク)
- React コンポーネント(明確な仕様があるボイラープレート)
- テスト作成(仕様からの包括的なカバレッジ)
- DevOps スクリプト(ターミナル指向で簡潔な出力)
Claude Opus 4.6 の勝利項目:
- SQL エッジケース(微妙なデータのバグの捕捉)
- デバッグ(複雑なシステムにおける根本原因の理解)
- コードレビュー(セキュリティと正確性の問題の発見)
- リファクタリング(ファイル間の依存関係の処理)
- アーキテクチャ(トレードオフに関する深い推論)
パターンは明確です。GPT-5.4 は、明確に定義されたコーディングタスクにおいて、より高速で安価、かつ優れたモデルです。Claude Opus 4.6 は、複雑さを伴う推論が必要なタスクにおいて、より深く慎重なモデルです。
これは DataCamp の分析の結果とも一致します。GPT-5.4 は最高レベルの万能モデルであり、Opus 4.6 は特に自律的エージェントや高度なコーディングタスクに優れています。
コスト要因
スコアの差(9 ポイント)は比較的小さいですが、コストの差はそうではありません。
| 指標 | GPT-5.4 | Claude Opus 4.6 |
|---|---|---|
| 入力料金 | $2.50/MTok | $15/MTok |
| 出力料金 | $15/MTok | $75/MTok |
| 速度 | 73.4 tok/s | 40.5 tok/s |
| コンテキストウィンドウ | 1M (272K以上で追加料金) | 1M (一律料金) |
| Tool search による節約 | ~47% token 削減 | N/A |
この 10 タスクのテストでは、合計 API コストは GPT-5.4 が約 $4.20、Opus 4.6 が約 $31.50 でした。これは、3.5% の品質差に対して 7.5 倍のコスト差があることを意味します。
毎日何百もの AI 支援コーディングタスクを実行するチームにとって、大多数の作業には GPT-5.4 を使用し、推論の深さが実質的な違いを生む重要度の高い 10-20% のタスクにのみ Opus を予約するという計算が強力に支持されます。
スマートな戦略:両方使う
2026 年のほとんどの実務開発者は、一方のモデルを選ぶのではなく、いつそれぞれを使うかを選択しています。このテストから浮かび上がったパターンは、ZBuild で私たちが採用しているものと一致します。
常用ツール: GPT-5.4 (Codex CLI または API 経由)
- 新しいエンドポイント、コンポーネント、スクリプトの作成
- 仕様からのテスト生成
- 隔離された問題の迅速なデバッグ
- DevOps および CI/CD の自動化
高負荷作業用: Claude Opus 4.6 (Claude Code または API 経由)
- 複雑な依存関係を持つ複数ファイルのリファクタリング
- セキュリティ上重要なコードのレビュー
- アーキテクチャ設計セッション
- 大規模なコードベースにおける不明瞭な問題のデバッグ
この 2 つのモデルを併用するアプローチは、コストを抑えつつ、両方のモデルの強みの 95% を捉えることができます。Portkey によるこれらのモデルの選択ガイドも、同じハイブリッドアプローチを推奨しています。
ベンチマークが示す内容(参考)
上記のタスクごとの結果は、公式のベンチマークとも一致しています。
| ベンチマーク | GPT-5.4 | Opus 4.6 | 測定内容 |
|---|---|---|---|
| SWE-bench Verified | ~80% | 80.8% | 実際の GitHub issue の解決 |
| SWE-bench Pro | 57.7% | ~46% | より難しく厳格なコーディングタスク |
| Terminal-bench 2.0 | 75.1% | 65.4% | ターミナルおよびシステムタスク |
| HumanEval | 93.1% | 90.4% | 関数レベルのコード生成 |
| GPQA Diamond | 92.0-92.8% | 87.4-91.3% | 専門家レベルの推論 |
| ARC-AGI-2 | 73.3% | 68.8-69.2% | 新規の推論 |
出典: MindStudio ベンチマーク, Evolink 分析, Anthropic
GPT-5.4 はほとんどのベンチマークでリードしています。Opus 4.6 は、現実世界のバグ修正に最も密接に関連するベンチマークである SWE-bench Verified でリードしています。これが、私のテストにおけるデバッグとリファクタリングでの Opus の優位性を説明しています。
結論
1 つのモデルしか選べない場合: GPT-5.4 です。コーディングタスクの 80% を同等以上の品質でこなし、コストは 6-7 倍安く、速度は 80% 高速です。Opus が優れている 20% のタスク(デバッグ、リファクタリング、アーキテクチャ)も、GPT-5.4 でより詳細なプロンプトを与えることで対処できることが多いです。
両方使える場合: ぜひそうしてください。日常的なコーディングには GPT-5.4 を、複雑な作業には Opus 4.6 を使用します。これは妥協ではなく、最適な戦略です。
コストを気にせず、すべてのタスクで最大の品質を求める場合: Claude Opus 4.6 です。総合スコアで勝利しており、その勝利は品質が最も重要となるタスク(バグはボイラープレートよりもコストがかかる)において得られたものです。
高価なモデルが圧倒するだろうと考えていたので、結果は予想外でした。実際にはそうではありませんでした。2 つのモデルには真に異なる強みがあり、最善の戦略は、目の前のタスクにどちらの強みが必要かを知ることです。
出典
- OpenAI — Introducing GPT-5.4
- OpenAI — API Pricing
- Anthropic — Introducing Claude Opus 4.6
- Anthropic — Claude Pricing
- MindStudio — GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro Benchmarks
- MindStudio — Which AI Model Is Right for Your Workflow
- Portkey — GPT-5.4 vs Claude Opus 4.6 Guide
- DataCamp — GPT-5.4 vs Claude Opus 4.6 for Agentic Tasks
- Artificial Analysis — GPT-5.4 vs Claude Opus 4.6
- Bind AI — GPT-5.4 vs Claude Opus 4.6 for Coding
- Evolink — SWE-bench Verified 2026: Claude vs GPT
- DEV Community — ChatGPT vs Claude for Coding 2026
- Claude 5 — Opus 4.6 Benchmark Analysis