論文の概要: Routesplain: Towards Faithful and Intervenable Routing for Software-related Tasks
- arxiv url: http://arxiv.org/abs/2511.09373v1
- Date: Thu, 13 Nov 2025 01:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.53916
- Title: Routesplain: Towards Faithful and Intervenable Routing for Software-related Tasks
- Title(参考訳): Routesplain: ソフトウェア関連タスクの忠実でインターベンブルなルーティングを目指して
- Authors: Adam Štorek, Vikas Upadhyay, Marianne Menglin Liu, Daniel W. Peterson, Anshul Mittal, Sujeeth Bharadwaj, Fahad Shah, Dan Roth,
- Abstract要約: 本稿では,ソフトウェア関連タスクのための最初のLLMルータであるRoutesplainを紹介する。
既存のルーティングアプローチとは異なり、Routesplainはまず、各クエリから人間解釈可能な概念を抽出する。
我々は,8つのソフトウェア関連タスクにまたがる16の最先端LCM上でのRoutesplainの評価を行った。
- 参考スコア(独自算出の注目度): 35.0568483095689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs now tackle a wide range of software-related tasks, yet we show that their performance varies markedly both across and within these tasks. Routing user queries to the appropriate LLMs can therefore help improve response quality while reducing cost. Prior work, however, has focused mainly on general-purpose LLM routing via black-box models. We introduce Routesplain, the first LLM router for software-related tasks, including multilingual code generation and repair, input/output prediction, and computer science QA. Unlike existing routing approaches, Routesplain first extracts human-interpretable concepts from each query (e.g., task, domain, reasoning complexity) and only routes based on these concepts, thereby providing intelligible, faithful rationales. We evaluate Routesplain on 16 state-of-the-art LLMs across eight software-related tasks; Routesplain outperforms individual models both in terms of accuracy and cost, and equals or surpasses all black-box baselines, with concept-level intervention highlighting avenues for further router improvements.
- Abstract(参考訳): LLMは、今や幅広いソフトウェア関連のタスクに対処していますが、それらのタスク間のパフォーマンスは明らかに異なります。
したがって、ユーザクエリを適切なLLMにルーティングすることは、コストを削減しながら応答品質を改善するのに役立つ。
しかし、これまでは主にブラックボックスモデルによる汎用LSMルーティングに重点を置いてきた。
我々は,多言語コード生成と修復,入出力予測,コンピュータサイエンスQAなど,ソフトウェア関連タスクのための最初のLLMルータであるRoutesplainを紹介する。
既存のルーティングアプローチとは異なり、Routesplainはまず、各クエリ(例えば、タスク、ドメイン、推論の複雑さ)から人間解釈可能な概念を抽出し、これらの概念に基づいてルートのみを抽出する。
Routesplainは精度とコストの両方で個々のモデルより優れており、すべてのブラックボックスベースラインに匹敵するか上回っている。
関連論文リスト
- DiSRouter: Distributed Self-Routing for LLM Selections [23.38983740640377]
集中制御から分散ルーティングへ移行する新しいパラダイムであるDiS(Distributed Self-)を紹介する。
DiS では、クエリは LLM エージェントのネットワークを横切り、それぞれが自身の自己認識に基づいて他のエージェントに答えるかどうかを独立に決定する。
大規模な実験により、DiSは様々なシナリオで既存のルーティング方法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-10-22T03:36:40Z) - xRouter: Training Cost-Aware LLMs Orchestration System via Reinforcement Learning [104.63494870852894]
我々は,学習したルータが直接応答するか,あるいは1つ以上の外部モデルを呼び出すことができるツールコールベースのルーティングシステム x を提案する。
当社の実装には、報酬とコスト会計を含む、完全な強化学習フレームワークが含まれています。
さまざまなベンチマークで、xはコストパフォーマンスのトレードオフを強く達成します。
論文 参考訳(メタデータ) (2025-10-09T16:52:01Z) - Router-R1: Teaching LLMs Multi-Round Routing and Aggregation via Reinforcement Learning [27.70756702796812]
マルチLLMルーティングとアグリゲーションを逐次決定プロセスとして定式化する強化学習フレームワークである textbf Generalization-R1 を提案する。
学習を容易にするために,形式報酬と最終結果報酬と,性能とコストのバランスを最適化するための新たなコスト報酬からなる軽量なルールベース報酬を用いる。
論文 参考訳(メタデータ) (2025-06-10T17:56:45Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - MasRouter: Learning to Route LLMs for Multi-Agent Systems [14.029698552632107]
LLM(Large Language Models)をベースとしたマルチエージェントシステムは,LLM機能の境界を推し進めることが実証されている。
現在のルーティング手法は、クエリ毎にLLM選択をカスタマイズすることで、単一エージェントシナリオのオーバーヘッドを効果的に削減する。
まず、MASのすべてのコンポーネントを統一的なルーティングフレームワークに統合するマルチエージェントルーティングシステム(MASR)の問題を紹介する。
Mas is a high-perform, achieve a $1.8%sim8.2%$ improve over the state-of-the-art method on MBPP; 2) Economical, reduce overhead to up 52.07%$ than S.
論文 参考訳(メタデータ) (2025-02-16T14:00:59Z) - Universal Model Routing for Efficient LLM Inference [69.86195589350264]
モデルルーティングは,大規模言語モデル(LLM)の推論コストを削減する手法である
動的ルーティング問題に対する新しいアプローチであるUniRouteを提案する。
これらは理論的に最適なルーティングルールの推定であり、過大なリスクバウンドによってそれらのエラーを定量化する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - GraphRouter: A Graph-based Router for LLM Selections [13.463815950807874]
我々は,Large Language Models (LLMs) の選択を強化するため,グラフと呼ばれる新しい帰納的グラフフレームワークを導入する。
エッジ予測メカニズムを通じて、グラフは潜在的なエッジの属性(LLM応答の効果とコスト)を予測でき、最適化された推奨が可能になる。
実験では、Graphは既存のルータを大幅に上回り、12.3%の最小パフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-04T18:02:48Z) - Mixture of In-Context Experts Enhance LLMs' Long Context Awareness [51.65245442281049]
大規模言語モデル(LLM)は、異なる文脈の位置に対する不均一な認識を示す。
本稿では,この課題に対処するため,"Mixture of In-Context Experts" (MoICE) という新しい手法を提案する。
MoICEには2つの重要なコンポーネントがある: LLM内の各アテンションヘッドに統合されたルータと、軽量なルータのみのトレーニング最適化戦略である。
論文 参考訳(メタデータ) (2024-06-28T01:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。