
Anthropic於Claude Code推出名為Code Review的研究預覽版服務,能在GitHub的拉取請求建立或更新時自動執行審查。該服務會用多個代理人平行分析程式碼差異與整個程式碼庫脈絡,將邏輯錯誤、安全弱點、邊界條件問題與潛在迴歸風險,以行內註解和總結意見回寫到拉取請求中,但不直接核准,也不阻擋合併,原有的人工作業流程仍保留。
Anthropic把自家內部已在多數拉取請求上使用的審查流程,進一步做成可對外服務。官方提到,隨著內部工程師的程式碼產出提高,人工審查逐漸成為瓶頸,許多變更只能得到快速瀏覽式檢查。Code Review所瞄準的,正是這類在AI提升程式開發速度後,團隊反而更難維持深度審查的實際問題。
Anthropic刻意把Code Review與既有較輕量的GitHub Actions方案區隔,官方文件指出,企業希望在自有CI環境中執行Claude,仍可選擇GitHub Actions或GitLab CI/CD,而Code Review則是由Anthropic基礎設施執行的託管服務,主打較完整的拉取請求審查。系統會先由多個代理人找出疑點,再透過驗證步驟過濾誤判、去除重複項目,最後依嚴重性排序。Anthropic表示,平均一次審查約需20分鐘,規模越大、脈絡越複雜的拉取請求,成本也會更提高。
Code Review按詞元(Token)用量計費,單次平均費用約15至25美元。管理者可設定每月支出上限,選擇啟用的儲存庫,並決定是在拉取請求建立時審查一次,或在每次推送更新後持續審查。管理介面提供分析儀表板,用來追蹤已審查的拉取請求數量、每周成本,以及有多少審查意見已因開發者修正而自動結案。
Anthropic目前將Code Review列為研究預覽版,提供給Team與Enterprise方案。除Anthropic外,OpenAI、微軟與Google等業者,也都已提供類似的AI程式碼審查功能,OpenAI的Codex已支援在GitHub拉取請求中以@codex review要求審查,可設定在新拉取請求開啟時自動執行審查。微軟GitHub Copilot也提供程式碼審查功能,預設可由使用者將Copilot指派為審查者,也能依個人、儲存庫或組織設定為自動審查,必要時可在新推送後重新審查。Google的Gemini Code Assist on GitHub則會在新拉取請求建立後提供初步審查,也支援以/gemini review手動觸發審查。
熱門新聞
2026-03-06
2026-03-11
2026-03-06
2026-03-09