論文の概要: Kimi-Dev: Agentless Training as Skill Prior for SWE-Agents
- arxiv url: http://arxiv.org/abs/2509.23045v2
- Date: Thu, 09 Oct 2025 17:13:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.719829
- Title: Kimi-Dev: Agentless Training as Skill Prior for SWE-Agents
- Title(参考訳): Kimi-Dev:SWE-Agentsの先駆者としてのエージェントレストレーニング
- Authors: Zonghan Yang, Shengjie Wang, Kelin Fu, Wenyang He, Weimin Xiong, Yibo Liu, Yibo Miao, Bofei Gao, Yejie Wang, Yingwei Ma, Yanhao Li, Yue Liu, Zhenxing Hu, Kaitai Zhang, Shuyi Wang, Huarong Chen, Flood Sung, Yang Liu, Yang Gao, Zhilin Yang, Tianyu Liu,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア工学(SWE)にますます適用されつつある
我々はまず、Agentlessトレーニングレシピをキュレートし、SWE-bench Verified上で60.4%を達成したオープンソースのSWE LLMであるKim-Devを提示する。
5kの公用軌道にSFTを付加することで、Kim-DevはClaude 3.5 Sonnetと同等の48.6%のpass@1にSWE-Agentsをパワーアップする。
- 参考スコア(独自算出の注目度): 43.20918899874477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly applied to software engineering (SWE), with SWE-bench as a key benchmark. Solutions are split into SWE-Agent frameworks with multi-turn interactions and workflow-based Agentless methods with single-turn verifiable steps. We argue these paradigms are not mutually exclusive: reasoning-intensive Agentless training induces skill priors, including localization, code edit, and self-reflection that enable efficient and effective SWE-Agent adaptation. In this work, we first curate the Agentless training recipe and present Kimi-Dev, an open-source SWE LLM achieving 60.4\% on SWE-bench Verified, the best among workflow approaches. With additional SFT adaptation on 5k publicly-available trajectories, Kimi-Dev powers SWE-Agents to 48.6\% pass@1, on par with that of Claude 3.5 Sonnet (241022 version). These results show that structured skill priors from Agentless training can bridge workflow and agentic frameworks for transferable coding agents.
- Abstract(参考訳): 大規模言語モデル(LLM)はソフトウェア工学(SWE)にますます適用され、SWEベンチマークはSWEベンチマークである。
ソリューションは、マルチターンインタラクションを備えたSWE-Agentフレームワークと、単一ターン検証可能なステップを備えたワークフローベースのAgentlessメソッドに分割される。
推論集約型エージェントレストレーニングは、ローカライゼーション、コード編集、自己回帰などのスキル事前を誘導し、効率的かつ効果的なSWE-Agent適応を可能にする。
本稿では、まずAgentlessトレーニングのレシピをキュレートし、SWE-bench Verified上で60.4\%を達成したオープンソースのSWE LLMであるKimi-Devを紹介します。
5kの公用軌道にSFTを付加することで、Kim-DevはClaude 3.5 Sonnet(241022版)と同等のSWE-Agentsを48.6\% pass@1に変換する。
これらの結果は、Agentlessトレーニングによる構造化されたスキル事前は、転送可能なコーディングエージェントのためのワークフローとエージェントフレームワークをブリッジできることを示している。
関連論文リスト
- DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。