← LOG

AI2026.02.25

CursorがBG Agentでテスト自動化、Claude Codeとのセカンドオピニオン活用術

#cursor#claudecode#ai#生産性#開発ツール

はじめに

Cursor BG AgentとClaude Codeを組み合わせて、AI同士でセカンドオピニオンを回す構想メモです。

2026年2月、Cursorに「Get demos, not diffs」という機能が追加されました。

これを見たとき、**「CursorがClaude Codeっぽくなった」**と感じると同時に、「いや、これはむしろClaude Codeのセカンドオピニオンとして使えるのでは」という考えが浮かびました。

この記事はその考察です。実際に試した記録ではなく、「こう使えるのではないか」という構想なので、その点はご了承ください。


「Get demos, not diffs」とは

Cursorに追加されたBG Agent(バックグラウンドエージェント)のテスト機能です。

従来のAIコーディングツールは「コードを書く」までが仕事でした。書いたコードが本当に動くかどうかは人間がテストする必要がありました。

この機能が変えるのはそこです。

【従来】
人間が指示 → AIがコードを書く → 人間がテスト・確認

【BG Agent後】
人間が指示 → AIがコードを書く → AIが自分でテスト → スクショ・動画で結果を見せる

AIがスクリーンショット・動画録画・ログをキャプチャして、動いている証拠ごと渡してくれる。「差分(diff)じゃなくてデモをくれ」というコンセプトはそういう意味です。

使うための条件

Obsidianのノートフォルダのようなローカル作業環境では使えません。あくまでGitHubで管理しているコードプロジェクトが対象です。


Claude Codeとの比較

Claude Code(Anthropic)はターミナルで動くCLIツールで、同様に「自律的にコードを書いてテストする」ことができます。

Cursor BG AgentClaude Code
動作場所クラウド仮想環境ローカルターミナル
テスト確認方法動画・スクショで視覚的ターミナル出力のみ
GitHub連携必須不要
ローカルファイルアクセスリポジトリのみPC全体
長時間の自律作業○(バックグラウンド実行)

CursorのユニークなポイントはUI込みでの視覚的な確認です。「動いているかどうか」を動画で確認できるのは、Webアプリ開発において特に強みになります。

Claude Codeのユニークなポイントはローカル全域へのアクセスです。GitHubに上げていないファイル、ローカルDBへのアクセス、スクリプトの実行など、PCの中なら何でもできる自由度があります。


セカンドオピニオンとして使う発想

ここからが本題の考察です。

AIは自信満々に間違えることがあります。1つのAIに全部任せると、その間違いに気づけないリスクがあります。

そこで考えたのがモデルとツールの掛け合わせです。

構成案

ツール使うモデル役割
Claude CodeClaude Opus / Sonnetメイン開発・深い推論
CursorGPT-4o / Gemini別視点での実装・視覚的テスト

Claude Codeで実装したものを、Cursor(別モデル)で検証させる。モデルの「癖」が違うので、同じ問題に対して異なるアプローチが出てくることがあります。

実運用イメージ

複雑・重要な機能の実装
→ Claude Code(Opus)でじっくり考えさせる

スピード重視・試作・アイデア検証
→ Cursor(Gemini)でさっと作る

最終的な動作確認
→ Cursor BG Agentで視覚的にテスト

なぜこれが価値があるのか

医療でいうセカンドオピニオンと同じ理由です。


今後やってみたいこと


まとめ

Cursorの「Get demos, not diffs」は、「コードを書くAI」から「開発を完結させるAI」への進化を示す機能です。

ただし「Cursorに全部任せる」より、Claude Codeとの役割分担・相互検証という使い方の方が、現時点では精度・安心感の両面で優れていると考えています。

複数のAIツールを目的別に使い分けること。それが2026年のAI活用の一段上の使い方になるのではないかと思っています。

実際に試したら続編を書きます。

Zennでも読む ← LOGに戻る