論文の概要: One Request, Multiple Experts: LLM Orchestrates Domain Specific Models via Adaptive Task Routing
- arxiv url: http://arxiv.org/abs/2511.12484v1
- Date: Sun, 16 Nov 2025 07:36:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.194367
- Title: One Request, Multiple Experts: LLM Orchestrates Domain Specific Models via Adaptive Task Routing
- Title(参考訳): 複数の専門家からの要求:LLMは適応タスクルーティングを通じてドメイン固有モデルをオーケストレーションする
- Authors: Xu Yang, Chenhui Lin, Haotian Liu, Qi Wang, Yue Yang, Wenchuan Wu,
- Abstract要約: 本稿では,汎用大規模言語モデル(LLM)を利用して複数のDSMを協調するADN-Agentアーキテクチャを提案する。
ADN-Agent内では、多様なDSMに対して統一的で柔軟なインタフェースを提供する新しい通信機構を設計する。
いくつかの言語集約サブタスクに対して、細調整された小言語モデルのための自動トレーニングパイプラインを提案する。
- 参考スコア(独自算出の注目度): 31.039310937191644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the integration of massive distributed energy resources and the widespread participation of novel market entities, the operation of active distribution networks (ADNs) is progressively evolving into a complex multi-scenario, multi-objective problem. Although expert engineers have developed numerous domain specific models (DSMs) to address distinct technical problems, mastering, integrating, and orchestrating these heterogeneous DSMs still entail considerable overhead for ADN operators. Therefore, an intelligent approach is urgently required to unify these DSMs and enable efficient coordination. To address this challenge, this paper proposes the ADN-Agent architecture, which leverages a general large language model (LLM) to coordinate multiple DSMs, enabling adaptive intent recognition, task decomposition, and DSM invocation. Within the ADN-Agent, we design a novel communication mechanism that provides a unified and flexible interface for diverse heterogeneous DSMs. Finally, for some language-intensive subtasks, we propose an automated training pipeline for fine-tuning small language models, thereby effectively enhancing the overall problem-solving capability of the system. Comprehensive comparisons and ablation experiments validate the efficacy of the proposed method and demonstrate that the ADN-Agent architecture outperforms existing LLM application paradigms.
- Abstract(参考訳): 大規模分散エネルギー資源の統合と新規市場エンティティの広範な参加により、アクティブ・ディストリビューション・ネットワーク(ADN)の運用は、複雑な多シナリオ・多目的問題へと徐々に進化しつつある。
専門家エンジニアは、異なる技術的問題に対処するために多くのドメイン固有モデル(DSM)を開発したが、これらの異種DSMの習得、統合、編成には、ADN演算子にとってかなりのオーバーヘッドが伴う。
したがって、これらのDSMを統一し、効率的な協調を可能にするためには、インテリジェントなアプローチが緊急に必要となる。
本稿では,複数のDSMを協調する汎用言語モデル(LLM)を活用し,適応的意図認識,タスク分解,DSM実行を可能にするADN-Agentアーキテクチャを提案する。
ADN-Agent内では、多様な異種DSMに対して統一的で柔軟なインタフェースを提供する新しい通信機構を設計する。
最後に、いくつかの言語集約サブタスクに対して、小型言語モデルを微調整するための自動訓練パイプラインを提案し、システム全体の問題解決能力を効果的に向上させる。
総合的な比較とアブレーション実験により提案手法の有効性を検証し,ADN-Agentアーキテクチャが既存のLLMアプリケーションパラダイムより優れていることを示す。
関連論文リスト
- Leveraging Multi-Agent System (MAS) and Fine-Tuned Small Language Models (SLMs) for Automated Telecom Network Troubleshooting [0.0]
テレコムネットワークは、規模と複雑さが急速に増加し、効率的な管理、運用、最適化がますます困難になっている。
既存のモデルはスコープが狭く、大量のラベル付きデータを必要とし、異種デプロイメントを一般化するのに苦労することが多い。
本稿では,エージェントワークフローを利用するマルチエージェントシステム (MAS) を提案し,LLM(Large Language Models) が完全自動ネットワークトラブルシューティングのための特別なツールをコーディネートする。
論文 参考訳(メタデータ) (2025-11-01T18:19:41Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios [28.65914611521654]
InfiAgentはピラミッドのようなDAGベースのMulti-Agent Frameworkで、textbfinfiniteのシナリオに適用できる。
InfiAgentはADAS(類似の自動生成エージェントフレームワーク)と比較して9.9%高いパフォーマンスを実現している
論文 参考訳(メタデータ) (2025-09-26T15:44:09Z) - ToolACE-MT: Non-Autoregressive Generation for Agentic Multi-Turn Interaction [84.90394416593624]
大規模言語モデル(LLM)によるエージェント的タスク解決には,多ターン・マルチステップインタラクションが必要である。
既存のシミュレーションベースのデータ生成手法は、複数のエージェント間のコストのかかる自己回帰的相互作用に大きく依存している。
本稿では,高品質なマルチターンエージェント対話を構築するための非自己回帰反復生成フレームワークであるToolACE-MTを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:38:23Z) - Large Language Model Powered Automated Modeling and Optimization of Active Distribution Network Dispatch Problems [22.491530071431107]
本稿では,大規模言語モデル(LLM)を用いた自動モデリングと最適化手法を提案する。
提案手法は,ADN演算子による単純な自然言語クエリによるディスパッチ戦略の導出を可能にするユーザ中心インタフェースを特徴とする。
論文 参考訳(メタデータ) (2025-07-25T07:46:25Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Variational Offline Multi-agent Skill Discovery [47.924414207796005]
本稿では,サブグループレベルの抽象化と時間レベルの抽象化を同時に取得し,マルチエージェントスキルを形成するための2つの新しい自動エンコーダ方式を提案する。
提案手法はオフラインのマルチタスクデータに適用可能であり,検出したサブグループスキルは再学習することなく,関連するタスク間で伝達可能である。
StarCraftタスクに対する実証的な評価は、既存の階層型マルチエージェント強化学習(MARL)法よりもはるかに優れていることを示している。
論文 参考訳(メタデータ) (2024-05-26T00:24:46Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。