論文の概要: MapCoder-Lite: Squeezing Multi-Agent Coding into a Single Small LLM
- arxiv url: http://arxiv.org/abs/2509.17489v1
- Date: Mon, 22 Sep 2025 08:19:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.291023
- Title: MapCoder-Lite: Squeezing Multi-Agent Coding into a Single Small LLM
- Title(参考訳): MapCoder-Lite: マルチエージェントコーディングを単一LLMに変換する
- Authors: Woongkyu Lee, Junhee Cho, Jungwook Choi,
- Abstract要約: MapCoder-Liteは、単一の7Bモデルを4つのロール特化エージェント-retriever、プランナー、コーダ、デバッガ使用のみランク32にアップグレードする。
MapCoder-LiteはxCodeEvalの精度を2倍以上にし($13.2%から$28.3%まで)、すべてのフォーマットの失敗を排除し、32Bベースラインの6ポイント以内に閉じる。
- 参考スコア(独自算出の注目度): 9.44363104217319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have advanced code generation from single-function tasks to competitive-programming problems, but existing multi-agent solutions either rely on costly large-scale ($>$ 30B) models or collapse when downsized to small open-source models. We present MapCoder-Lite, which upgrades a single 7B model into four role-specialised agents-retriever, planner, coder, and debugger-using only rank-32, role-specific LoRA adapters ($<3\%$ extra parameters). Three lightweight techniques make this possible: (i) trajectory distillation from strong LLMs fixes format fragility in retrieval and debugging, (ii) supervisor-guided correction strengthens planning and coding agents, and (iii) agent-wise LoRA fine-tuning delivers memory-efficient specialisation. Comprehensive evaluation on xCodeEval, APPS, and CodeContests shows that MapCoder-Lite more than doubles xCodeEval accuracy (from $13.2\%$ to $28.3\%$), eliminates all format failures, and closes to within six points of a 32B baseline while cutting GPU memory and token-generation time by $4\times$. These results demonstrate that careful agent-wise fine-tuning unleashes high-quality multi-agent coding on a small language model.
- Abstract(参考訳): 大規模言語モデル(LLM)は、単一機能タスクから競合プログラミング問題まで高度なコード生成を持つが、既存のマルチエージェントソリューションは、コストのかかる大規模モデルに依存しているか、小さなオープンソースモデルにダウンサイズした場合に崩壊する。
MapCoder-Liteは、単一の7Bモデルを4つのロール特化エージェント、プランナー、コーダ、デバッガ使用のみのランク32、ロール特化LoRAアダプタ(<3\%$余分なパラメータ)にアップグレードする。
3つの軽量技術がこれを可能にします。
一 強力なLLMからのトラジェクトリー蒸留により、検索及びデバッグにおけるフォーマットの脆弱性を解消する。
2 監督誘導補正は、計画及び符号化エージェントを強化し、
三 エージェントワイドLORAファインチューニングは、メモリ効率の良い特殊化を提供する。
xCodeEval、APPS、CodeContestsの総合的な評価によると、MapCoder-Liteは、xCodeEvalの精度を2倍以上にし($13.2\%から$28.3\%まで)、すべてのフォーマットの失敗を排除し、GPUメモリとトークン生成時間を$4\times$に削減しながら、32Bベースラインの6ポイント以内まで閉じている。
これらの結果から,エージェントの微調整に注意すると,小言語モデル上での高品質なマルチエージェント符号化が実現することが示された。
関連論文リスト
- Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights [75.83625828306839]
textbfDrag-and-Drop LLMs (textitDnD)は、未ラベルのタスクプロンプトをLoRAの重み更新に直接マッピングすることで、タスク単位のトレーニングを廃止する。
ライトウェイトテキストエンコーダは、各プロンプトバッチを条件埋め込みに蒸留し、カスケードされた超畳み込みデコーダによって全LORA行列に変換する。
論文 参考訳(メタデータ) (2025-06-19T15:38:21Z) - AdaCoder: An Adaptive Planning and Multi-Agent Framework for Function-Level Code Generation [17.020112052995334]
典型的なマルチエージェントフレームワークは、LLM(Large Language Model)ベースのエージェントで構成されている。
AdaCoderは、関数レベルのコード生成のための新しい適応型プランニング、マルチエージェントフレームワークである。
論文 参考訳(メタデータ) (2025-04-05T16:14:01Z) - CodeLutra: Boosting LLM Code Generation via Preference-Guided Refinement [32.46078765471136]
大規模言語モデル(LLM)はコード生成に革命をもたらしたが、かなりのリソースを必要とし、しばしば過度に一般化する。
私たちは、正しいコード試行と間違ったコード試行の両方を活用するフレームワークであるCodeLutraを紹介します。
成功と失敗の両方から学ぶことで、CodeLutraは、高品質なコード生成へのスケーラブルで効率的なパスを提供する。
論文 参考訳(メタデータ) (2024-11-07T21:51:07Z) - Are Decoder-Only Large Language Models the Silver Bullet for Code Search? [44.9422305001193]
コード検索はコードの再利用に不可欠であり、開発者は関連コードスニペットを効率的に見つけることができる。
強力なデコーダのみの大規模言語モデル(LLM)は多くのコードインテリジェンスタスクに革命をもたらした。
本稿では,11個のデコーダのみのLCMのシステム評価を行い,その性能をゼロショットと微調整で解析する。
論文 参考訳(メタデータ) (2024-10-29T17:05:25Z) - SuperCoder2.0: Technical Report on Exploring the feasibility of LLMs as Autonomous Programmer [0.0]
SuperCoder2.0は、人工知能によるソフトウェア開発を強化するために設計された高度な自律システムである。
システムは、AIネイティブな開発アプローチとインテリジェントエージェントを組み合わせて、完全に自律的なコーディングを可能にする。
論文 参考訳(メタデータ) (2024-09-17T13:44:42Z) - Small Agent Can Also Rock! Empowering Small Language Models as Hallucination Detector [114.88975874411142]
幻覚検出は大規模言語モデル(LLM)にとって難しい課題である
本稿では,HluAgentと呼ばれる自律型LLMエージェントフレームワークを提案する。
HaluAgentでは、LLM、多機能ツールボックスを統合し、きめ細かい3段階検出フレームワークを設計する。
論文 参考訳(メタデータ) (2024-06-17T07:30:05Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。