論文の概要: Routesplain: Towards Faithful and Intervenable Routing for Software-related Tasks
- arxiv url: http://arxiv.org/abs/2511.09373v1
- Date: Thu, 13 Nov 2025 01:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.53916
- Title: Routesplain: Towards Faithful and Intervenable Routing for Software-related Tasks
- Title(参考訳): Routesplain: ソフトウェア関連タスクの忠実でインターベンブルなルーティングを目指して
- Authors: Adam Štorek, Vikas Upadhyay, Marianne Menglin Liu, Daniel W. Peterson, Anshul Mittal, Sujeeth Bharadwaj, Fahad Shah, Dan Roth,
- Abstract要約: 本稿では,ソフトウェア関連タスクのための最初のLLMルータであるRoutesplainを紹介する。
既存のルーティングアプローチとは異なり、Routesplainはまず、各クエリから人間解釈可能な概念を抽出する。
我々は,8つのソフトウェア関連タスクにまたがる16の最先端LCM上でのRoutesplainの評価を行った。
- 参考スコア(独自算出の注目度): 35.0568483095689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs now tackle a wide range of software-related tasks, yet we show that their performance varies markedly both across and within these tasks. Routing user queries to the appropriate LLMs can therefore help improve response quality while reducing cost. Prior work, however, has focused mainly on general-purpose LLM routing via black-box models. We introduce Routesplain, the first LLM router for software-related tasks, including multilingual code generation and repair, input/output prediction, and computer science QA. Unlike existing routing approaches, Routesplain first extracts human-interpretable concepts from each query (e.g., task, domain, reasoning complexity) and only routes based on these concepts, thereby providing intelligible, faithful rationales. We evaluate Routesplain on 16 state-of-the-art LLMs across eight software-related tasks; Routesplain outperforms individual models both in terms of accuracy and cost, and equals or surpasses all black-box baselines, with concept-level intervention highlighting avenues for further router improvements.
- Abstract(参考訳): LLMは、今や幅広いソフトウェア関連のタスクに対処していますが、それらのタスク間のパフォーマンスは明らかに異なります。
したがって、ユーザクエリを適切なLLMにルーティングすることは、コストを削減しながら応答品質を改善するのに役立つ。
しかし、これまでは主にブラックボックスモデルによる汎用LSMルーティングに重点を置いてきた。
我々は,多言語コード生成と修復,入出力予測,コンピュータサイエンスQAなど,ソフトウェア関連タスクのための最初のLLMルータであるRoutesplainを紹介する。
既存のルーティングアプローチとは異なり、Routesplainはまず、各クエリ(例えば、タスク、ドメイン、推論の複雑さ)から人間解釈可能な概念を抽出し、これらの概念に基づいてルートのみを抽出する。
Routesplainは精度とコストの両方で個々のモデルより優れており、すべてのブラックボックスベースラインに匹敵するか上回っている。
関連論文リスト
- xRouter: Training Cost-Aware LLMs Orchestration System via Reinforcement Learning [104.63494870852894]
我々は,学習したルータが直接応答するか,あるいは1つ以上の外部モデルを呼び出すことができるツールコールベースのルーティングシステム x を提案する。
当社の実装には、報酬とコスト会計を含む、完全な強化学習フレームワークが含まれています。
さまざまなベンチマークで、xはコストパフォーマンスのトレードオフを強く達成します。
論文 参考訳(メタデータ) (2025-10-09T16:52:01Z) - Router-R1: Teaching LLMs Multi-Round Routing and Aggregation via Reinforcement Learning [27.70756702796812]
マルチLLMルーティングとアグリゲーションを逐次決定プロセスとして定式化する強化学習フレームワークである textbf Generalization-R1 を提案する。
学習を容易にするために,形式報酬と最終結果報酬と,性能とコストのバランスを最適化するための新たなコスト報酬からなる軽量なルールベース報酬を用いる。
論文 参考訳(メタデータ) (2025-06-10T17:56:45Z) - Universal Model Routing for Efficient LLM Inference [69.86195589350264]
モデルルーティングは,大規模言語モデル(LLM)の推論コストを削減する手法である
動的ルーティング問題に対する新しいアプローチであるUniRouteを提案する。
これらは理論的に最適なルーティングルールの推定であり、過大なリスクバウンドによってそれらのエラーを定量化する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - Mixture of In-Context Experts Enhance LLMs' Long Context Awareness [51.65245442281049]
大規模言語モデル(LLM)は、異なる文脈の位置に対する不均一な認識を示す。
本稿では,この課題に対処するため,"Mixture of In-Context Experts" (MoICE) という新しい手法を提案する。
MoICEには2つの重要なコンポーネントがある: LLM内の各アテンションヘッドに統合されたルータと、軽量なルータのみのトレーニング最適化戦略である。
論文 参考訳(メタデータ) (2024-06-28T01:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。