論文の概要: Architecture-Aware Multi-Design Generation for Repository-Level Feature Addition
- arxiv url: http://arxiv.org/abs/2603.01814v1
- Date: Mon, 02 Mar 2026 12:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.876029
- Title: Architecture-Aware Multi-Design Generation for Repository-Level Feature Addition
- Title(参考訳): アーキテクチャを考慮したレポジトリレベル特徴付加のためのマルチデザイン生成
- Authors: Mingwei Liu, Zhenxi Chen, Zheng Pei, Zihao Wang, Yanlin Wang, Zibin Zheng,
- Abstract要約: RAIMは、リポジトリレベルの機能追加のための、多設計およびアーキテクチャ対応のフレームワークである。
複数の多様な実装設計を生成することで、線形パッチから切り離される。
NoCode-bench Verifiedデータセットの実験では、RAIMが新しい最先端のパフォーマンスを確立することが示されている。
- 参考スコア(独自算出の注目度): 53.50448142467294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implementing new features across an entire codebase presents a formidable challenge for Large Language Models (LLMs). This proactive task requires a deep understanding of the global system architecture to prevent unintended disruptions to legacy functionalities. Conventional pipeline and agentic frameworks often fall short in this area because they suffer from architectural blindness and rely on greedy single-path code generation. To overcome these limitations, we propose RAIM, a multi-design and architecture-aware framework for repository-level feature addition. This framework introduces a localization mechanism that conducts multi-round explorations over a repository-scale code graph to accurately pinpoint dispersed cross-file modification targets. Crucially, RAIM shifts away from linear patching by generating multiple diverse implementation designs. The system then employs a rigorous impact-aware selection process based on static and dynamic analysis to choose the most architecturally sound patch and avoid system regressions. Comprehensive experiments on the NoCode-bench Verified dataset demonstrate that RAIM establishes a new state-of-the-art performance with a 39.47% success rate, achieving a 36.34% relative improvement over the strongest baseline. Furthermore, the approach exhibits robust generalization across various foundation models and empowers open-weight models like DeepSeek-v3.2 to surpass baseline systems powered by leading proprietary models. Detailed ablation studies confirm that the multi-design generation and impact validation modules are critical to effectively managing complex dependencies and reducing code errors. These findings highlight the vital role of structural awareness in automated software evolution.
- Abstract(参考訳): コードベース全体にわたって新機能を実装することは、LLM(Large Language Models)にとって非常に難しい課題である。
この積極的なタスクは、レガシー機能に対する意図しない破壊を防止するために、グローバルシステムアーキテクチャの深い理解を必要とする。
従来のパイプラインとエージェントフレームワークは、アーキテクチャの盲目に悩まされ、欲張りのシングルパスコード生成に依存しているため、この分野では不足することが多い。
これらの制限を克服するため,リポジトリレベルの機能追加のためのマルチ設計およびアーキテクチャ対応フレームワークであるRAIMを提案する。
このフレームワークは、分散ファイル修正ターゲットを正確に特定するために、リポジトリスケールのコードグラフ上で複数ラウンドの探索を行うローカライズメカニズムを導入している。
RAIMは、複数の多様な実装設計を生成することで、線形パッチから切り離される。
次に、静的および動的解析に基づく厳密な影響認識選択プロセスを用いて、最もアーキテクチャ的に健全なパッチを選択し、システムの回帰を回避する。
NoCode-bench Verifiedデータセットに関する包括的な実験は、RAIMが39.47%の成功率で新しい最先端のパフォーマンスを確立し、最強のベースラインに対して36.34%の相対的な改善を達成していることを示している。
さらに、このアプローチは様々な基礎モデルに対して堅牢な一般化を示し、DeepSeek-v3.2のようなオープンウェイトモデルにより、主要なプロプライエタリモデルによるベースラインシステムを超えることができる。
詳細なアブレーション調査では、複数設計の生成と影響検証モジュールが、複雑な依存関係を効果的に管理し、コードエラーを減らすために重要であることが確認されている。
これらの発見は、ソフトウェアの自動進化における構造的認識の重要な役割を浮き彫りにした。
関連論文リスト
- A Systematic Study of LLM-Based Architectures for Automated Patching [7.9821766277253845]
本研究では,4つの大規模言語モデル (LLM) に基づくパッチ処理パラダイムの制御評価を行う。
実際の脆弱性タスクにおけるパッチの正確性、障害モード、トークン使用量、実行時間を分析します。
固定は効率的だが脆く、単一エージェントシステムは柔軟性とコストのバランスを保ち、マルチエージェント設計はオーバーヘッドを大幅に上回るコストを犠牲にして改善される。
論文 参考訳(メタデータ) (2026-03-01T20:26:22Z) - Integrating Diverse Assignment Strategies into DETRs [61.61489761918158]
ラベル割り当ては、特にDETRスタイルのフレームワークにおいて、オブジェクト検出器において重要なコンポーネントである。
我々は,任意のDETR型検出器に多様な割り当て戦略をシームレスに統合する,フレキシブルで軽量なフレームワークであるLoRA-DETRを提案する。
論文 参考訳(メタデータ) (2026-01-14T07:28:54Z) - Iterative Structured Pruning for Large Language Models with Multi-Domain Calibration [73.40887151631088]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い範囲で顕著な成功を収めている。
その拡大を続けるスケールは、かなりの計算オーバーヘッド、メモリフットプリント、推論レイテンシなど、現実世界のデプロイメントに重大な障壁をもたらす。
本研究では,アーキテクチャコンポーネント全体を排除し,標準ハードウェアアクセラレーションとの互換性を維持する構造的プルーニングについて検討する。
論文 参考訳(メタデータ) (2026-01-06T03:09:31Z) - AR-MOT: Autoregressive Multi-object Tracking [56.09738000988466]
本稿では,大規模言語モデル(LLM)フレームワーク内のシーケンス生成タスクとしてMOTを定式化する,新しい自己回帰パラダイムを提案する。
この設計により、タスク固有のヘッドを必要とせずに、フレキシブルなシーケンス構成によって構造化された結果を出力できる。
地域レベルの視覚知覚を高めるために,事前訓練された検出器に基づくオブジェクト・トケナイザを導入する。
論文 参考訳(メタデータ) (2026-01-05T09:17:28Z) - Towards Understanding Bugs in Distributed Training and Inference Frameworks for Large Language Models [7.486731499255164]
本稿では,DeepSpeed,Megatron-LM,Colossal-AIの3つの分散トレーニング/推論フレームワークを対象に,308の固定バグの大規模解析を行った。
本研究は, バグ症状, 根本原因, バグの特定と修正の取り組み, および, 一般的な低ストレス修正戦略について検討する。
論文 参考訳(メタデータ) (2025-06-12T07:24:59Z) - Patchwork: A Unified Framework for RAG Serving [6.430565435912026]
Retrieval Augmented Generation (RAG) は、外部知識ソースとの統合による大規模言語モデルの信頼性向上のための新しいパラダイムとして登場した。
Patchworkは、これらの効率のボトルネックに対処するために設計された、包括的なエンドツーエンドのRAGサービスフレームワークです。
論文 参考訳(メタデータ) (2025-05-01T18:58:26Z) - An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - Restore Anything Model via Efficient Degradation Adaptation [129.38475243424563]
RAMは、様々な劣化にまたがる固有の類似性を活用して、効率的で包括的な復元を可能にする統一された経路を取る。
RAMのSOTA性能はRAMのSOTA性能を確認し、トレーニング可能なパラメータで約82%、FLOPで約85%のモデルの複雑さを減少させる。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。