論文の概要: Federate the Router: Learning Language Model Routers with Sparse and Decentralized Evaluations
- arxiv url: http://arxiv.org/abs/2601.22318v1
- Date: Thu, 29 Jan 2026 21:00:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.062854
- Title: Federate the Router: Learning Language Model Routers with Sparse and Decentralized Evaluations
- Title(参考訳): ルータをフェデレートする:スパースと分散評価による言語モデルルータの学習
- Authors: Baris Askin, Shivam Patel, Anupam Nayak, Andrea Vigano, Jiin Woo, Gauri Joshi, Carlee Joe-Wong,
- Abstract要約: 大規模言語モデル(LLM)は、エッジとエンタープライズクライアントによってリモートでホストされるサービスとして、ますますアクセスされてきている。
既存のルータアプローチでは、集中型クエリモデル評価データへのアクセスを前提としている。
LLMルーティングのための最初のフェデレーションフレームワークを導入し、クライアントがローカルオフラインクエリモデル評価データから共有ルーティングポリシーを学習できるようにする。
- 参考スコア(独自算出の注目度): 26.24858921328445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly accessed as remotely hosted services by edge and enterprise clients that cannot run frontier models locally. Since models vary widely in capability and price, routing queries to models that balance quality and inference cost is essential. Existing router approaches assume access to centralized query-model evaluation data. However, these data are often fragmented across clients, such as end users and organizations, and are privacy-sensitive, which makes centralizing data infeasible. Additionally, per-client router training is ineffective since local evaluation data is limited and covers only a restricted query distribution and a biased subset of model evaluations. We introduce the first federated framework for LLM routing, enabling clients to learn a shared routing policy from local offline query-model evaluation data. Our framework supports both parametric multilayer perceptron router and nonparametric K-means router under heterogeneous client query distributions and non-uniform model coverage. Across two benchmarks, federated collaboration improves the accuracy-cost frontier over client-local routers, both via increased effective model coverage and better query generalization. Our theoretical results also validate that federated training reduces routing suboptimality.
- Abstract(参考訳): 大規模言語モデル(LLM)は、フロンティアモデルをローカルに実行できないエッジおよびエンタープライズクライアントによってリモートでホストされるサービスとして、ますますアクセスされるようになっている。
モデルの性能と価格が大きく異なるため、品質と推論コストのバランスをとるモデルにクエリをルーティングすることが不可欠である。
既存のルータアプローチでは、集中型クエリモデル評価データへのアクセスを前提としている。
しかしながら、これらのデータはエンドユーザや組織など、クライアント間で断片化され、プライバシに敏感なため、データの集中化が不可能になることが多い。
さらに、局所的な評価データが限られており、限定されたクエリ分布とモデル評価の偏ったサブセットのみをカバーするため、クライアント毎のルータトレーニングは効果がない。
LLMルーティングのための最初のフェデレーションフレームワークを導入し、クライアントがローカルオフラインクエリモデル評価データから共有ルーティングポリシーを学習できるようにする。
我々のフレームワークは、異種クライアントクエリ分布下でのパラメトリック多層パーセプトロンルータと非パラメトリックK平均ルータの両方をサポートし、非一様モデルカバレッジをサポートする。
2つのベンチマークで、フェデレートされたコラボレーションにより、効率的なモデルカバレッジの向上とクエリの一般化によって、クライアントローカルルータよりも精度の高いフロンティアが向上する。
また,フェデレートトレーニングによってルーティングの最適度が低下することが理論的に検証された。
関連論文リスト
- Meta-Router: Bridging Gold-standard and Preference-based Evaluations in Large Language Model Routing [15.724480880994259]
大規模言語モデル(LLM)ルータは、クエリ毎に候補のプールから最も適切なモデルを選択する。
クラウドソーシングやLSM-as-a-judgeシステムを通じて収集された嗜好ベースのデータは、より安価でスケーラブルだが、応答の真の品質を反映することにはバイアスが伴うことが多い。
我々は、好みデータバイアスを補正し、2つのデータソース間の不均衡に対処し、ルーティングの堅牢性と効率を改善する統合因果ルータトレーニングフレームワークを開発する。
論文 参考訳(メタデータ) (2025-09-29T21:44:00Z) - FEDEXCHANGE: Bridging the Domain Gap in Federated Object Detection for Free [58.34974215853841]
Federated Object Detection (FOD)は、クライアントがさまざまなドメインからローカルデータにアクセスすることなく、グローバルなオブジェクト検出モデルを協調的にトレーニングすることを可能にする。
既存のFOD法はしばしばエッジデバイスのハードウェア制約を見落とし、高い計算コストを発生させる局所的なトレーニング正規化を導入する。
本稿ではFEDEXCHANGEを提案する。FEDEXCHANGEはドメインギャップを埋める新しいFODフレームワークである。
論文 参考訳(メタデータ) (2025-09-01T17:39:25Z) - Don't Reach for the Stars: Rethinking Topology for Resilient Federated Learning [1.3270838622986498]
フェデレートラーニング(FL)は、データをローカルに保つことでデータのプライバシを保護しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
従来のFLアプローチは、中央サーバがクライアントからモデル更新を集約する、集中型の星型トポロジーに依存しています。
本稿では,P2P (P2P) FLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-07T10:10:37Z) - How Robust Are Router-LLMs? Analysis of the Fragility of LLM Routing Capabilities [62.474732677086855]
大規模言語モデル(LLM)ルーティングは,計算コストと性能のバランスをとる上で重要な戦略である。
DSCベンチマークを提案する: Diverse, Simple, and Categorizedは、幅広いクエリタイプでルータのパフォーマンスを分類する評価フレームワークである。
論文 参考訳(メタデータ) (2025-03-20T19:52:30Z) - FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - Mobilizing Personalized Federated Learning in Infrastructure-Less and
Heterogeneous Environments via Random Walk Stochastic ADMM [0.14597673707346284]
本稿では,データヘテロジニティを持つ孤立ノードを特徴とする実践シナリオにおいて,フェデレートラーニング(FL)を実装する上での課題について考察する。
これらの課題を克服するために,モビリティとレジリエンスの促進を目的とした,パーソナライズされたFLアプローチを提案する。
我々はRWSADMM(Random Walk Alternating Direction Method of Multipliers)と呼ばれる新しい最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-04-25T03:00:18Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - RingFed: Reducing Communication Costs in Federated Learning on Non-IID
Data [3.7416826310878024]
フェデレーション学習は、生データではなくモデルパラメータを交換することで、各クライアントのプライバシを保護するために使用される。
本稿では,連合学習の学習過程における通信オーバーヘッドを低減する新しいフレームワークであるRingFedを提案する。
2つの異なる公開データセットの実験は、RingFedが高速収束、モデル精度、通信コストの低いことを示している。
論文 参考訳(メタデータ) (2021-07-19T13:43:10Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。