AnthropicがClaude Codeに新機能「Code Review」を導入した。複数のAIがプルリクエストを精査し、バグ候補の発見や誤検出の絞り込み、重要度の順位付けまでを行う。コード生成の高速化が進むなか、開発現場で新たなボトルネックとなっていたレビュー負荷の軽減を図る。
AI開発企業の米Anthropicは3月9日(現地時間)、AIコーディング支援ツール「Claude Code」に、AIがバグを自動で検出する機能「Code Review」を追加したと発表した。開発者が修正したコードの統合を依頼するプルリクエストに対し、自律的にタスクをこなすAIエージェントがレビューする。 Code Review(出典:公式YouTube動画、以下同) 開発者がプルリクエストを作成 ...
Anthropicは3月9日、AIコーディングツール「Claude Code」に新機能「Code Review」を追加すると発表した。プルリクエスト(PR)ごとに複数のAIエージェントを動かし、バグの発見、誤検知絞り込み、重要度判定を並列で実行する仕組み。TeamとEnterprise向けのリサーチプレビューとして提供する。
また、スピードよりも徹底的な検証を重視して設計されており、似たような機能を持つClaude Code GitHub Actionsよりも詳細な検証を行うため時間はかかり、費用は高額となる。レビューはトークン使用量に基づいて課金される。通常は平均15~25ドルで、プルリクエストのサイズと複雑さに応じて変化する。管理者はダッシュボードや月間支出上限、リポジトリ単位のレビュー機能のオン/ ...
First vibe coding, now vibe reviewing ... but the buzz is good as it finds worthy issues Anthropic has introduced a more extensive – and expensive – way to review source code in hosted repositories, ...