論文の概要: SWE-Spot: Building Small Repo-Experts with Repository-Centric Learning
- arxiv url: http://arxiv.org/abs/2601.21649v1
- Date: Thu, 29 Jan 2026 12:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.821062
- Title: SWE-Spot: Building Small Repo-Experts with Repository-Centric Learning
- Title(参考訳): SWE-Spot:レポジトリ中心学習による小さなRepo-Expertの構築
- Authors: Jinjun Peng, Magnus Saebo, Tianjun Zhong, Yi-Jie Cheng, Junfeng Yang, Baishakhi Ray, Simin Chen, Yangruibo Ding,
- Abstract要約: 小さな言語モデルには、複雑な、馴染みの無い一般化を扱うための推論時間がない。
本稿では,水平タスク幅よりも垂直リポジトリ深度を優先するパラダイムシフトであるRepository-Centric Learning(RCL)を提案する。
RCLは、より高いトレーニングサンプル効率と低い推論コストをもたらす。
- 参考スコア(独自算出の注目度): 26.404563042035395
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of coding agents in privacy-sensitive and resource-constrained environments drives the demand for capable open-weight Small Language Models (SLMs). However, they suffer from a fundamental capability gap: unlike frontier large models, they lack the inference-time strong generalization to work with complicated, unfamiliar codebases. We identify that the prevailing Task-Centric Learning (TCL) paradigm, which scales exposure across disparate repositories, fails to address this limitation. In response, we propose Repository-Centric Learning (RCL), a paradigm shift that prioritizes vertical repository depth over horizontal task breadth, suggesting SLMs must internalize the "physics" of a target software environment through parametric knowledge acquisition, rather than attempting to recover it via costly inference-time search. Following this new paradigm, we design a four-unit Repository-Centric Experience, transforming static codebases into interactive learning signals, to train SWE-Spot-4B, a family of highly compact models built as repo-specialized experts that breaks established scaling trends, outperforming open-weight models up to larger (e.g., CWM by Meta, Qwen3-Coder-30B) and surpassing/matching efficiency-focused commercial models (e.g., GPT-4.1-mini, GPT-5-nano) across multiple SWE tasks. Further analysis reveals that RCL yields higher training sample efficiency and lower inference costs, emphasizing that for building efficient intelligence, repository mastery is a distinct and necessary dimension that complements general coding capability.
- Abstract(参考訳): プライバシに敏感でリソースに制約のある環境におけるコーディングエージェントの展開は、有能なオープンウェイト・スモール言語モデル(SLM)の需要を加速させる。
しかし、それらは基本的な機能ギャップに悩まされている。フロンティアの大規模モデルとは異なり、複雑な、馴染みの無いコードベースを扱うための推論時強い一般化が欠けている。
異なるリポジトリにまたがって露出を拡大するタスク中心学習(TCL)パラダイムは,この制限に対処できない。
そこで本研究では,水平タスク幅よりも垂直リポジトリ深度を優先するパラダイムシフトであるRepository-Centric Learning (RCL)を提案する。
この新たなパラダイムに従って、静的コードベースをインタラクティブな学習信号に変換し、SWE-Spot-4Bをトレーニングする4つのユニットリポジトリ-Centric Experienceを設計する。SWE-Spot-4Bは、既存のスケーリングトレンドを破り、オープンウェイトモデルをより大きく(Meta、Qwen3-Coder-30BによるCWM)、効率を重視した商用モデル(例えば、GPT-4.1-mini、GPT-5-nano)を複数のSWEタスクで上回り、より高速なモデルである。
さらなる分析により、RCLはトレーニングサンプルの効率を高め、推論コストを低減し、効率的なインテリジェンスを構築するために、リポジトリのマスターは一般的なコーディング能力を補完する別次元であり、必要な要素であることを強調した。
関連論文リスト
- Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - LLaVA-CMoE: Towards Continual Mixture of Experts for Large Vision-Language Models [21.888139819188105]
LLaVA-CMoEは、大規模言語モデルの継続的な学習フレームワークである。
Probe-Guided Knowledge Extensionメカニズムは、いつ、どこで新しいエキスパートを追加するべきかを決定する。
Probabilistic Task Locatorは各タスクを専用軽量ルータに割り当てる。
論文 参考訳(メタデータ) (2025-03-27T07:36:11Z) - PLM: Efficient Peripheral Language Models Hardware-Co-Designed for Ubiquitous Computing [48.30406812516552]
我々は、モデルアーキテクチャとエッジシステムの制約を協調的に最適化する共同設計プロセスを通じて開発された、周辺言語モデルであるPLMを紹介する。
PLMはMulti-head Latent Attentionメカニズムを採用し、正方形ReLUアクティベーション機能を採用してスパーシティを促進し、ピークメモリフットプリントを減少させる。
評価の結果, PLMは, 公開されているデータに基づいて訓練された既存の小言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-03-15T15:11:17Z) - Toward Neurosymbolic Program Comprehension [46.874490406174644]
我々は,既存のDL技術の強みと従来の象徴的手法を組み合わせたニューロシンボリック研究の方向性を提唱する。
第1回ニューロシンボリック・プログラム・フレームワークの確立をめざして,提案するアプローチの予備的結果を示す。
論文 参考訳(メタデータ) (2025-02-03T20:38:58Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - COMET: A Comprehensive Cluster Design Methodology for Distributed Deep Learning Training [42.514897110537596]
現代のディープラーニング(DL)モデルは、トレーニングする専門的でハイエンドなノードの大規模なクラスタを必要とするサイズに成長しています。
このようなクラスタを設計してパフォーマンスと利用の両方を最大化します。
本稿では,並列化戦略と鍵クラスタリソースのプロビジョニングが分散DLトレーニングのパフォーマンスに与える影響を共同で研究する,総合的なクラスタ設計方法論とワークフローであるCOMETを紹介する。
論文 参考訳(メタデータ) (2022-11-30T00:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。