論文の概要: PersonalizedRouter: Personalized LLM Routing via Graph-based User Preference Modeling
- arxiv url: http://arxiv.org/abs/2511.16883v1
- Date: Fri, 21 Nov 2025 01:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.853976
- Title: PersonalizedRouter: Personalized LLM Routing via Graph-based User Preference Modeling
- Title(参考訳): PersonalizedRouter:グラフベースのユーザ嗜好モデリングによるパーソナライズされたLLMルーティング
- Authors: Zhongjie Dai, Tao Feng, Jiaxuan You,
- Abstract要約: 多様なユーザプロファイルをモデル化し,パーソナライズされたLLM選択を行うグラフベースのフレームワークであるPersonalizedを提案する。
ユーザクエリと最適なLLM間のコンテキスト情報をキャプチャするために、Personalizedはインタラクションデータを異種グラフに変換する。
実験の結果,パーソナライズドは既存のLCM選択法よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 21.94491843046055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing number of Large Language Models (LLMs) with diverse capabilities and response styles provides users with a wider range of choices, which presents challenges in selecting appropriate LLMs, as user preferences vary in terms of performance, cost, and response style. Current LLM selection methods typically optimize for a single fixed objective, such as performance, cost, or a trade-off between them, and fail to learn individual user preferences from interaction data. To address these limitations, we propose PersonalizedRouter, a graph-based framework that models diverse user profiles and performs personalized LLM selection by leveraging interaction data that includes task context, queries, candidate LLMs, and user decisions. To capture contextual information between user queries and optimal LLMs, PersonalizedRouter converts the interaction data into a heterogeneous graph, where the relationships between different types of nodes are represented by edges. To evaluate adaptability across users, we design two strategies: the multi-cost-efficiency simulation strategy and the LLM-as-a-Judge strategy. In addition, we construct PersonaRoute-Bench, a large-scale benchmark with 1,000 simulated users and 10 LLMs. Experimental results show that PersonalizedRouter significantly outperforms existing LLM selection methods and surpasses the strongest methods by a large margin of 15.38% and 9.83% under two simulation strategies. On the PersonaRoute-Bench with 1,000 users, it further surpasses the best methods by 16.19% and 59.69% while maintaining higher efficiency. Moreover, PersonalizedRouter demonstrates strong few-shot generalization, achieving 64.81% and 85.80% of the fully trained model's performance when adapting to new users and new LLMs.
- Abstract(参考訳): 多様な機能とレスポンススタイルを備えた大規模言語モデル(LLM)の増加により、ユーザは幅広い選択肢を得られるようになり、パフォーマンス、コスト、レスポンススタイルの点でユーザの好みが異なるため、適切なLLMを選択する際の課題が提示される。
現在のLCM選択方法は、通常、パフォーマンス、コスト、それらの間のトレードオフのような単一の固定された目的のために最適化され、インタラクションデータから個々のユーザの好みを学習できない。
これらの制約に対処するため、PersonalizedRouterというグラフベースのフレームワークを提案し、多様なユーザプロファイルをモデル化し、タスクコンテキスト、クエリ、候補LLM、ユーザ決定を含むインタラクションデータを活用することによりパーソナライズされたLCM選択を行う。
ユーザクエリと最適なLLM間のコンテキスト情報をキャプチャするために、PersonalizedRouterは、インタラクションデータを異種グラフに変換し、異なるタイプのノード間の関係をエッジで表現する。
ユーザ間の適応性を評価するために,マルチコスト効率シミュレーション戦略とLCM-as-a-Judge戦略の2つの戦略を設計する。
さらに,1,000名のシミュレーションユーザと10個のLLMを持つ大規模ベンチマークである PersonaRoute-Bench を構築した。
実験結果から、PersonalizedRouterは既存のLCM選択法を著しく上回り、2つのシミュレーション戦略の下で15.38%と9.83%という大きなマージンで最強の手法を上回ります。
パーソナルート・ベンチでは1,000人のユーザーがおり、高い効率を維持しながら16.19%、59.69%のベストメソッドを上回っている。
さらにPersonalizedRouterは、64.81%と85.80%を達成し、新しいユーザや新しいLLMに適応する際の完全なトレーニングされたモデルのパフォーマンスを実現している。
関連論文リスト
- Towards Generalized Routing: Model and Agent Orchestration for Adaptive and Efficient Inference [37.57624773333661]
MoMA(Mixture of Models and Agents)は、大規模言語モデル(LLM)とエージェントベースのルーティングを統合するフレームワークである。
本稿では,異なるルーティングモデル構造下での各種LLMの能力を評価するためのトレーニングデータセットを提案する。
推論中、クエリは最高のコストパフォーマンス効率でLSMに動的にルーティングされる。
論文 参考訳(メタデータ) (2025-09-09T10:15:42Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - PROPER: A Progressive Learning Framework for Personalized Large Language Models with Group-Level Adaptation [32.53309583561644]
本稿では,社会科学におけるメソレベルの理論に触発された新しい学習フレームワークであるPROPERを提案する。
ProPERは、好みに基づいてユーザーをグループ化し、段階的にLSMを適用することで、人口レベルとユーザーレベルのモデルを橋渡しする。
実験の結果,Properは複数のタスクでSOTAモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-03T08:40:50Z) - LLM Bandit: Cost-Efficient LLM Generation via Preference-Conditioned Dynamic Routing [3.090041654375235]
本稿では, LLM選択過程を多武装バンディット問題として定式化する新しい枠組みを提案する。
提案手法は好み条件付き動的ルーティング機構を組み込んでおり、ユーザーは推論時に好みを指定できる。
提案手法は,LLMプラットフォーム間での精度とコスト効率の両立を実現している。
論文 参考訳(メタデータ) (2025-02-04T22:09:43Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations [11.004673022505566]
何百万というユーザの長いクエリは、大規模言語モデルのパフォーマンスを低下させ、推奨することができる。
本稿では,大規模言語モデルと従来のレコメンデーションシステムの両方の機能を利用するハイブリッドタスク割り当てフレームワークを提案する。
実世界の3つのデータセットによる結果から,弱い利用者の減少と,サブ人口に対するRSのロバスト性の向上が示唆された。
論文 参考訳(メタデータ) (2024-05-01T19:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。