論文の概要: SERA: Soft-Verified Efficient Repository Agents
- arxiv url: http://arxiv.org/abs/2601.20789v2
- Date: Mon, 02 Feb 2026 19:55:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.801798
- Title: SERA: Soft-Verified Efficient Repository Agents
- Title(参考訳): SERA:ソフト検証効率的なレポジトリエージェント
- Authors: Ethan Shen, Danny Tormoen, Saurabh Shah, Ali Farhadi, Tim Dettmers,
- Abstract要約: 本稿では,効率的なコーディングエージェントの訓練方法であるSERA(Soft-Verified Efficient Repository Agents)を提案する。
SERAは、完全なオープンソース(オープンデータ、メソッド、コード)モデルで最先端の結果を達成する。
SVGのより大きなコーパスに適用し、20万以上の合成軌道を生成する。
- 参考スコア(独自算出の注目度): 30.92152799806249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-weight coding agents should hold a fundamental advantage over closed-source systems: they can be specialized to private codebases, encoding repository-specific information directly in their weights. Yet the cost and complexity of training has kept this advantage theoretical. We show it is now practical. We present Soft-Verified Efficient Repository Agents (SERA), an efficient method for training coding agents that enables the rapid and cheap creation of agents specialized to private codebases. Using only supervised finetuning (SFT), SERA achieves state-of-the-art results among fully open-source (open data, method, code) models while matching the performance of frontier open-weight models like Devstral-Small-2. Creating SERA models is 26x cheaper than reinforcement learning and 57x cheaper than previous synthetic data methods to reach equivalent performance. Our method, Soft Verified Generation (SVG), generates thousands of trajectories from a single code repository. Combined with cost-efficiency, this enables specialization to private codebases. Beyond repository specialization, we apply SVG to a larger corpus of codebases, generating over 200,000 synthetic trajectories. We use this dataset to provide detailed analysis of scaling laws, ablations, and confounding factors for training coding agents. Overall, we believe our work will greatly accelerate research on open coding agents and showcase the advantage of open-source models that can specialize to private codebases. We release SERA as the first model in Ai2's Open Coding Agents series, along with all our code, data, and Claude Code integration to support the research community.
- Abstract(参考訳): オープンウェイトなコーディングエージェントは、クローズドソースシステムに対して根本的な優位性を持つべきである。
しかし、トレーニングのコストと複雑さは、この利点を理論的に維持している。
現在は実用化されている。
我々は,プライベートコードベースに特化したエージェントを迅速かつ安価に作成できる,コーディングエージェントの訓練方法であるSERA(Soft-Verified Efficient Repository Agents)を提案する。
教師付き微調整(SFT)のみを用いて、SERAはDevstral-Small-2のようなフロンティアのオープンウェイトモデルのパフォーマンスを一致させながら、完全にオープンソース(オープンデータ、メソッド、コード)モデルの最先端の結果を達成する。
SERAモデルの作成は強化学習の26倍、従来の合成データ手法の57倍のコストで同等のパフォーマンスを実現する。
我々の方法であるSVG(Soft Verified Generation)は,単一のコードリポジトリから数千のトラジェクトリを生成する。
コスト効率と組み合わせることで、プライベートコードベースの特殊化が可能になる。
リポジトリの特殊化以外にも、SVGをより大きなコードベースのコーパスに適用し、20万以上の合成トラジェクトリを生成します。
このデータセットを使用して、コーディングエージェントのトレーニングのためのスケーリング法則、アブレーション、コンバウンディング要因の詳細な分析を行う。
全体として、我々の研究はオープンコーディングエージェントの研究を大幅に加速し、プライベートコードベースに特化できるオープンソースモデルの利点を示すだろうと考えています。
私たちは、Ai2のOpen Coding Agentsシリーズの最初のモデルとしてSERAをリリースしています。
関連論文リスト
- From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - Towards A Generalist Code Embedding Model Based On Massive Data Synthesis [35.04242699869519]
汎用コード検索のための最先端の埋め込みモデルである textbfCodeR (underlineCode underlineRetrieval) を導入する。
CodeRの優れたパフォーマンスは、DRU原則に基づいて構築された大規模な合成データセットであるCodeR-Pile上に構築されている。
論文 参考訳(メタデータ) (2025-05-19T04:37:53Z) - Every Sample Matters: Leveraging Mixture-of-Experts and High-Quality Data for Efficient and Accurate Code LLM [43.77512279007385]
Ling-Coder-Liteは、包括的なパフォーマンスと究極の効率を備えた、コード大言語モデルである。
我々は、高品質なデータキュレーション手法とともに、効率的なMixture-of-Experts(MoE)アーキテクチャを活用する。
Ling-Coder-Liteは、同じサイズの最先端モデルと比較して、12の代表的なコーディングベンチマークでオンパーパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-22T15:00:18Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - AlchemistCoder: Harmonizing and Eliciting Code Capability by Hindsight Tuning on Multi-source Data [64.69872638349922]
本稿では、マルチソースデータに微調整されたコード生成と一般化機能を備えたコードLLMのシリーズであるAlchemistCoderを紹介する。
本稿では,データ構築過程を微調整データに組み込んで,命令の進化,データフィルタリング,コードレビューなどのコード理解タスクを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。