論文の概要: SEMAG: Self-Evolutionary Multi-Agent Code Generation
- arxiv url: http://arxiv.org/abs/2603.15707v1
- Date: Mon, 16 Mar 2026 13:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.898537
- Title: SEMAG: Self-Evolutionary Multi-Agent Code Generation
- Title(参考訳): SEMAG: 自己進化型マルチエージェントコード生成
- Authors: Yulin Peng, Haowen Hou, Xinxin Zhu, Ying Tiffany He, F. Richard Yu,
- Abstract要約: 人間のコーディングを模倣する自己進化的多エージェントコード生成フレームワークSEMAGを提案する。
プログラムタスクを計画、コーディング、デバッグ、議論といった段階に分割し、タスクの難しさに適応する。
SEMAGは同一のバックボーンモデルを使用して、CodeContestsで以前のメソッドを3.3%上回っている。
- 参考スコア(独自算出の注目度): 42.05124551923306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have made significant progress in handling complex programming tasks. However, current methods rely on manual model selection and fixed workflows, which limit their ability to adapt to changing task complexities. To address this, we propose SEMAG, a Self-Evolutionary Multi-Agent code Generation framework that mimics human coding practices. It decomposes programming tasks into stages, including planning, coding, debugging, and discussion, while adapting workflows to task difficulty. Its self-evolutionary agents can access the latest models in real time and automatically upgrade the backbone model. SEMAG sets new state-of-the-art Pass@1 accuracy across benchmarks. Using identical backbone models, SEMAG outperforms prior methods by 3.3% on CodeContests. When augmented with self-evolutionary model selection that automatically identifies optimal backbones, SEMAG reaches 52.6%, showcasing both framework effectiveness and adaptability to evolving LLM capabilities.
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑なプログラミングタスクの処理において大きな進歩を遂げた。
しかし、現在のメソッドは手動のモデル選択と固定されたワークフローに依存しており、タスクの複雑さの変化に適応する能力を制限する。
これを解決するために,人間のコーディングプラクティスを模倣した自己進化型多エージェントコード生成フレームワークSEMAGを提案する。
プログラムタスクを計画、コーディング、デバッグ、議論といった段階に分割し、ワークフローをタスクの難しさに適応させる。
その自己進化エージェントは、最新のモデルにリアルタイムでアクセスでき、バックボーンモデルを自動的にアップグレードする。
SEMAGは、ベンチマーク間で新しい最先端のPass@1精度を設定する。
SEMAGは同一のバックボーンモデルを使用して、CodeContestsで以前のメソッドを3.3%上回っている。
最適なバックボーンを自動的に識別する自己進化モデル選択を付加すると、SEMAGは52.6%に達する。
関連論文リスト
- Evolutionary Generation of Multi-Agent Systems [49.47969796873096]
大規模言語モデル (LLM) ベースのマルチエージェントシステム (MAS) は複雑な推論、計画、ツール拡張タスクを強く約束する。
EvoMASは構造化構成生成としてMAS生成を定式化する。
EvoMASは、人間の設計したMASと以前の自動MAS生成方法の両方でタスク性能を一貫して改善する。
論文 参考訳(メタデータ) (2026-02-06T09:01:35Z) - Self-Adapting Language Models [47.52508465862889]
大規模言語モデル(LLM)は強力だが静的であり、新しいタスクや知識、例に対応して重みを適応するメカニズムが欠如している。
我々は,自己適応型LSM(Self-Adapting LLMs, SEAL)を導入する。
知識の定式化と数ショットの一般化の実験により、SEALは自己指向適応が可能な言語モデルに向けた有望なステップであることが示された。
論文 参考訳(メタデータ) (2025-06-12T17:48:13Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Model Evolution Framework with Genetic Algorithm for Multi-Task Reinforcement Learning [85.91908329457081]
マルチタスク強化学習は、様々なシナリオにまたがって一般化可能なエージェントを開発することを目的として、様々なタスクを完遂するために単一のポリシーを採用する。
既存のアプローチでは、ルーティングネットワークを使用して各タスクの特定のルートを生成し、モジュールのセットをさまざまなモデルに再構築し、複数のタスクを同時に完了させるのが一般的である。
本稿では,遺伝的アルゴリズム(MEGA)を用いたモデル進化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-19T09:22:34Z) - MorphAgent: Empowering Agents through Self-Evolving Profiles and Decentralized Collaboration [11.01813164951313]
本稿では,新しい自律型・自己組織化型・適応型多エージェントシステムであるMorphAgentを紹介する。
このアプローチでは,3つの主要な指標を通じて最適化された自己進化エージェントプロファイルを採用し,エージェントが個々の専門知識を磨き直す。
実験の結果,MorphAgentはタスク性能や要求の変化に対する適応性という点で,既存のフレームワークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-19T09:10:49Z) - MultiWay-Adapater: Adapting large-scale multi-modal models for scalable
image-text retrieval [4.4173427917548524]
MultiWay-Adapter(MWA)は「アライメント・エンハンサー」を特徴とする新しいフレームワークである
このエンハンサーはモーダル間アライメントを深くし、最小のチューニング作業で高い転送性を実現する。
実験によると、従来の効率的なチューニングアプローチとは異なり、MWAはモデルの有効性を維持し、トレーニング時間を最大57%削減している。
論文 参考訳(メタデータ) (2023-09-04T10:48:29Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。