論文の概要: GMTRouter: Personalized LLM Router over Multi-turn User Interactions
- arxiv url: http://arxiv.org/abs/2511.08590v1
- Date: Wed, 29 Oct 2025 03:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.058756
- Title: GMTRouter: Personalized LLM Router over Multi-turn User Interactions
- Title(参考訳): GMTRouter:マルチターンユーザインタラクションによるパーソナライズLDMルータ
- Authors: Encheng Xie, Yihang Sun, Tao Feng, Jiaxuan You,
- Abstract要約: GMTは、4つのノードタイプを持つ不均一グラフとしてマルチターンユーザ-LLM相互作用を表す。
軽量なインダクティブグラフ学習フレームワーク内で、数ショットのデータからユーザの好みをキャプチャする。
大規模な実験により、GMTは強いベースラインを一貫して上回ることを示した。
- 参考スコア(独自算出の注目度): 21.214827743968915
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Model (LLM) routing has demonstrated strong capability in balancing response quality with computational cost. As users exhibit diverse preferences, personalization has attracted increasing attention in LLM routing, since even identical queries may require different models to generate responses tailored to individual needs. However, existing approaches are not fully personalized and often fail to capture the complex interactions between specific users and LLMs. Moreover, user preference data is typically scarce, noisy, and inconsistent in format, which limits the effectiveness of methods that rely solely on user-specific data. To address these challenges, we propose GMTRouter, which represents multi-turn user-LLM interactions as a heterogeneous graph with four node types: user, LLM, query, and response, thereby preserving the rich relational structure of the interaction. Through a tailored message-passing mechanism, GMTRouter learns to capture user preferences from few-shot data within a lightweight inductive graph learning framework, enabling effective personalization. Extensive experiments demonstrate that GMTRouter consistently outperforms strong baselines, achieving 0.9 to 21.6 percent higher accuracy and 0.006 to 0.309 higher AUC across multiple datasets. More importantly, we demonstrate that GMTRouter can adapt to new users and evolving preferences using only few-shot data, without extensive fine-tuning. The code for GMTRouter is publicly available at https://github.com/ulab-uiuc/GMTRouter.
- Abstract(参考訳): 大規模言語モデル(LLM)ルーティングは、応答品質と計算コストのバランスをとる強力な能力を示している。
ユーザが様々な好みを示すにつれて、パーソナライズがLLMルーティングにおいて注目されるようになり、同一のクエリでさえ、個々のニーズに合わせてレスポンスを生成するために異なるモデルを必要とする可能性がある。
しかし、既存のアプローチはパーソナライズされていないため、特定のユーザとLLM間の複雑なインタラクションをキャプチャできないことが多い。
さらに、ユーザの嗜好データは、通常、ユーザ固有のデータにのみ依存するメソッドの有効性を制限するため、フォーマットが不十分で、ノイズが少なく、一貫性がない。
これらの課題に対処するために、GMTRouterを提案する。これは、ユーザ、LLM、クエリ、レスポンスの4つのノードタイプを持つ不均一グラフとして、マルチターンユーザ-LLMインタラクションを表現し、それによって、インタラクションのリッチリレーショナル構造を保存する。
GMTRouterは、カスタマイズされたメッセージパッシング機構を通じて、軽量なインダクティブグラフ学習フレームワーク内で、少数のショットデータからユーザの好みをキャプチャし、効果的なパーソナライズを可能にする。
GMTRouterは強いベースラインを一貫して上回り、精度0.9~21.6%、AUC0.006~0.309を複数のデータセットで達成している。
さらに重要なことは、GMTRouterが、広範囲の微調整なしに、少数のショットデータだけで新しいユーザーや好みに適応できることを示します。
GMTRouterのコードはhttps://github.com/ulab-uiuc/GMTRouterで公開されている。
関連論文リスト
- Arch-Router: Aligning LLM Routing with Human Preferences [1.859931123372708]
ルーティングは、異なるモデルの使用を運用する上で不可欠な技術になっている。
本稿では、クエリをユーザ定義ドメインにマッチさせることで、モデル選択をガイドする、嗜好整合型ルーティングフレームワークを提案する。
我々のアプローチは主観評価基準を捉え、ルーティング決定をより透明で柔軟にする。
論文 参考訳(メタデータ) (2025-06-19T23:57:41Z) - IRT-Router: Effective and Interpretable Multi-LLM Routing via Item Response Theory [26.39979967537193]
大規模言語モデル (LLM) は、幅広い自然言語タスクにおいて例外的な性能を示した。
強力なモデルはより良い結果をもたらすが、より小さなモデルはよりコスト効率が良いが、能力は低い。
ユーザクエリを最適なLLMに効率的にルーティングするマルチLLMルーティングフレームワークであるIRT-Merciを提案する。
論文 参考訳(メタデータ) (2025-06-01T15:14:58Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [53.059480071818136]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Parameter-free Dynamic Graph Embedding for Link Prediction [18.104685554457394]
FreeGEMはリンク予測のためのパラメータフリーな動的グラフ埋め込み手法である。
その結果,FreeGEMは36倍以上の効率向上を実現しつつ,最先端の手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-10-15T04:17:09Z) - Attentive Autoencoders for Multifaceted Preference Learning in One-class
Collaborative Filtering [23.056754242935824]
Attentive Multi-modal AutoRecはマルチモーダル潜在表現でユーザの好みを追跡する。
AMAはOC-CF設定下での最先端モデルと競合することを示す。
論文 参考訳(メタデータ) (2020-10-24T06:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。