論文の概要: TagRouter: Learning Route to LLMs through Tags for Open-Domain Text Generation Tasks
- arxiv url: http://arxiv.org/abs/2506.12473v1
- Date: Sat, 14 Jun 2025 12:17:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.288736
- Title: TagRouter: Learning Route to LLMs through Tags for Open-Domain Text Generation Tasks
- Title(参考訳): TagRouter: オープンドメインテキスト生成タスクのタグによるLLMへの学習経路
- Authors: Zhou Chen, Zhiqiang Wei, Yuqi Bai, Xue Xiong, Jianmin Wu,
- Abstract要約: モデルルーティングは、クエリを適切なモデルに割り当て、コストを削減しながらシステムパフォーマンスを改善する。
多言語多言語モデル(LLM)間の相乗効果を最適化する訓練不要なモデルルーティング手法であるTagを提案する。
実験の結果、Tagは13の基準法を上回り、システムの受け入れ率を6.15%向上し、コストを17.20%削減し、最適なコスト効率を実現した。
- 参考スコア(独自算出の注目度): 6.621120466118939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model routing allocates queries to the suitable model, improving system performance while reducing costs. However, existing routing methods face practical limitations that hinder scalability in large-scale applications and struggle to keep up with the rapid growth of the large language model (LLM) ecosystem. To tackle these challenges, we propose TagRouter, a training-free model routing method designed to optimize the synergy among multiple LLMs for open-domain text generation tasks. Experimental results demonstrate that TagRouter outperforms 13 baseline methods, increasing the accept rate of system by 6.15% and reducing costs by 17.20%, achieving optimal cost-efficiency. Our findings provides the LLM community with an efficient and scalable solution for model ensembling, offering users an evolvable "super model."
- Abstract(参考訳): モデルルーティングは、クエリを適切なモデルに割り当て、コストを削減しながらシステムパフォーマンスを改善する。
しかし、既存のルーティング手法は、大規模アプリケーションにおけるスケーラビリティを妨げ、大規模言語モデル(LLM)エコシステムの急激な成長に追随する現実的な制限に直面している。
これらの課題に対処するために、オープンドメインテキスト生成タスクにおいて複数のLLM間の相乗効果を最適化する訓練不要なモデルルーティング手法であるTagRouterを提案する。
実験の結果、TagRouterは13のベースライン法より優れており、システムの受け入れ率を6.15%、コストを17.20%削減し、最適なコスト効率を実現している。
我々の発見は、LLMコミュニティにモデルアンサンブルのための効率的でスケーラブルなソリューションを提供し、ユーザが進化可能な"スーパーモデル"を提供する。
関連論文リスト
- RadialRouter: Structured Representation for Efficient and Robust Large Language Models Routing [31.446419903916425]
Radialは、大規模言語モデルのルーティングのための新しいフレームワークである。
RadialFormerという名前のラジアル構造を持つ軽量なTransformerベースのバックボーンを使用して、クエリとLLMの関係を明確にする。
バランシングとコストファーストのシナリオでは、既存のルーティングメソッドの9.2%と5.8%を大きく上回っている。
論文 参考訳(メタデータ) (2025-06-04T12:16:41Z) - OmniRouter: Budget and Performance Controllable Multi-LLM Routing [31.60019342381251]
大規模言語モデル(LLM)は優れた性能を提供するが、かなりの計算資源を必要とし、比較的低効率で運用する。
マルチLLMサービスのための制御可能なルーティングフレームワークであるOmniを紹介する。
実験の結果、Omniは応答精度を最大6.30%改善し、同時に計算コストを少なくとも10.15%削減した。
論文 参考訳(メタデータ) (2025-02-27T22:35:31Z) - Universal Model Routing for Efficient LLM Inference [72.65083061619752]
我々は,これまで観測されていなかった新しいLLMがテスト時に利用可能となる動的ルーティングの問題を考察する。
本稿では,各LSMを特徴ベクトルとして表現する手法を提案する。
これらの戦略が理論的に最適なルーティングルールの推定であり、エラーを定量化するための過剰なリスクを提供する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing [56.98081258047281]
Token-lEvel Routing(CITER)との協調推論は、小規模および大規模言語モデルの効率的な協調を可能にするフレームワークである。
ルータの学習をポリシー最適化として定式化し、予測の質と生成の推論コストの両方に基づいて報酬を受け取る。
実験の結果,CITERは高品質な生成を保ちながら推論コストを低減し,リアルタイムおよびリソース制約のあるアプリケーションに対して有望なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-02-04T03:36:44Z) - RouteLLM: Learning to Route LLMs with Preference Data [41.687640419561504]
大きな言語モデル(LLM)は、幅広いタスクにわたって印象的な機能を示すが、どのモデルを使うかの選択は、パフォーマンスとコストのトレードオフを伴うことが多い。
推論において,より強いLLMと弱いLLMを動的に選択する効率的なルータモデルを提案する。
我々は、人間の嗜好データとデータ拡張技術を利用して、これらのルータのためのトレーニングフレームワークを開発し、性能を向上する。
論文 参考訳(メタデータ) (2024-06-26T18:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。