論文の概要: R2-Router: A New Paradigm for LLM Routing with Reasoning
- arxiv url: http://arxiv.org/abs/2602.02823v1
- Date: Mon, 02 Feb 2026 21:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.093972
- Title: R2-Router: A New Paradigm for LLM Routing with Reasoning
- Title(参考訳): R2-Router: 推論によるLLMルーティングのための新しいパラダイム
- Authors: Jiaqi Xue, Qian Lou, Jiarong Xing, Heng Huang,
- Abstract要約: R2-は既存のルータに比べて4~5倍のコストで最先端性能を実現する。
ルータはリアクティブセレクタから故意の推論器へと進化する。
- 参考スコア(独自算出の注目度): 58.929817721828194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As LLMs proliferate with diverse capabilities and costs, LLM routing has emerged by learning to predict each LLM's quality and cost for a given query, then selecting the one with high quality and low cost. However, existing routers implicitly assume a single fixed quality and cost per LLM for each query, ignoring that the same LLM's quality varies with its output length. This causes routers to exclude powerful LLMs when their estimated cost exceeds the budget, missing the opportunity that these LLMs could still deliver high quality at reduced cost with shorter outputs. To address this, we introduce R2-Router, which treats output length budget as a controllable variable and jointly selects the best LLM and length budget, enforcing the budget via length-constrained instructions. This enables R2-Router to discover that a powerful LLM with constrained output can outperform a weaker LLM at comparable cost-efficient configurations invisible to prior methods. Together with the router framework, we construct R2-Bench, the first routing dataset capturing LLM behavior across diverse output length budgets. Experiments show that R2-Router achieves state-of-the-art performance at 4-5x lower cost compared with existing routers. This work opens a new direction: routing as reasoning, where routers evolve from reactive selectors to deliberate reasoners that explore which LLM to use and at what cost budget.
- Abstract(参考訳): LLMが多種多様な機能とコストで増大するにつれて、LLMルーティングは、与えられたクエリに対してそれぞれのLLMの品質とコストを予測し、高品質で低コストのLLMルーティングを選択することを学ぶようになった。
しかし、既存のルータは、各クエリ毎のLLM当たりの固定品質とコストを暗黙的に仮定し、同じLLMの品質が出力長によって異なることを無視する。
これにより、推定コストが予算を超えるとルータは強力なLLMを除外し、これらのLLMは短い出力で低コストで高品質を供給できる機会を欠くことになる。
出力長の予算を制御可能な変数として扱い、最高のLCMと長さの予算を共同で選択するR2-Routerを導入する。
これにより、R2-Router は制約された出力を持つ強力な LLM が、従来の手法に匹敵するコスト効率の高い構成でより弱い LLM を上回り得ることを発見できる。
ルータフレームワークとともにR2-Benchを構築し,LLMの挙動を多種多様な出力長予算で把握した最初のルーティングデータセットである。
実験によると、R2-Routerは既存のルータに比べて4~5倍のコストで最先端の性能を実現する。
ルータは、リアクティブセレクタから、どのLLMを使用するか、どのコスト予算で検討する意図的な推論へと進化する。
関連論文リスト
- Dr.LLM: Dynamic Layer Routing in LLMs [55.11953638340419]
Dr.LLMは、事前訓練されたモデルに軽量な層ごとのルータを装備し、ブロックをスキップ、実行、繰り返すように決定する、適合性のあるフレームワークである。
ARC(logic)とDART(math)では、Dr.LLMは平均で5つのレイヤを保存しながら、最大3.4%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-10-14T17:51:26Z) - RadialRouter: Structured Representation for Efficient and Robust Large Language Models Routing [27.481573948464987]
Radialは、大規模言語モデルのルーティングのための新しいフレームワークである。
RadialFormerという名前のラジアル構造を持つ軽量なTransformerベースのバックボーンを使用して、クエリとLLMの関係を明確にする。
バランシングとコストファーストのシナリオでは、既存のルーティングメソッドの9.2%と5.8%を大きく上回っている。
論文 参考訳(メタデータ) (2025-06-04T12:16:41Z) - RouterEval: A Comprehensive Benchmark for Routing LLMs to Explore Model-level Scaling Up in LLMs [45.93874913792025]
大規模言語モデル(LLM)のルーティングにおいて,新しいモデルレベルのスケールアップ現象を示す。
この改善は、プール内の最高のシングルモデルと多くの既存の強力なLCMのパフォーマンスを上回ります。
我々は、ルータ研究に適したベンチマークであるRuterEvalを紹介し、12のLLM評価に対して20,000,000以上のパフォーマンス記録を含む。
論文 参考訳(メタデータ) (2025-03-08T04:07:07Z) - MasRouter: Learning to Route LLMs for Multi-Agent Systems [14.029698552632107]
LLM(Large Language Models)をベースとしたマルチエージェントシステムは,LLM機能の境界を推し進めることが実証されている。
現在のルーティング手法は、クエリ毎にLLM選択をカスタマイズすることで、単一エージェントシナリオのオーバーヘッドを効果的に削減する。
まず、MASのすべてのコンポーネントを統一的なルーティングフレームワークに統合するマルチエージェントルーティングシステム(MASR)の問題を紹介する。
Mas is a high-perform, achieve a $1.8%sim8.2%$ improve over the state-of-the-art method on MBPP; 2) Economical, reduce overhead to up 52.07%$ than S.
論文 参考訳(メタデータ) (2025-02-16T14:00:59Z) - Universal Model Routing for Efficient LLM Inference [69.86195589350264]
モデルルーティングは,大規模言語モデル(LLM)の推論コストを削減する手法である
動的ルーティング問題に対する新しいアプローチであるUniRouteを提案する。
これらは理論的に最適なルーティングルールの推定であり、過大なリスクバウンドによってそれらのエラーを定量化する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - MixLLM: Dynamic Routing in Mixed Large Language Models [57.309520357563215]
大規模言語モデル(LLM)は、最近、人工知能の可能性を秘めている。
問合せ-LLM代入のための動的コンテキスト帯域ベースのルーティングシステムであるMixLLMを開発した。
論文 参考訳(メタデータ) (2025-02-09T02:26:15Z) - Rerouting LLM Routers [27.16232746301828]
LLMルータは、クエリを分類し、それらの複雑さに応じて、より安く、より高価なLCMにルーティングすることで、生成の品質とコストのバランスをとる。
本稿では,ルータの対向ロバスト性について検討する。
論文 参考訳(メタデータ) (2025-01-03T14:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。