論文の概要: Fints: Efficient Inference-Time Personalization for LLMs with Fine-Grained Instance-Tailored Steering
- arxiv url: http://arxiv.org/abs/2510.27206v1
- Date: Fri, 31 Oct 2025 06:01:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.998595
- Title: Fints: Efficient Inference-Time Personalization for LLMs with Fine-Grained Instance-Tailored Steering
- Title(参考訳): フィント:細粒インスタンスステアリングを用いたLDMの効率的な推論時間パーソナライズ
- Authors: Kounianhua Du, Jianxing Liu, Kangning Zhang, Wenxiang Jiao, Yuan Lu, Jiarui Jin, Weiwen Liu, Yong Yu, Weinan Zhang,
- Abstract要約: 本稿では,ユーザデータからサンプルレベルの干渉を生成し,モデルの前方通過に注入してパーソナライズするステアリングフレームワークを提案する。
本手法は,対話モードやコンテキスト長の異なる環境において,ロバスト性を保ちながら,高速シフト環境におけるパーソナライズ性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 49.212940215720884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid evolution of large language models (LLMs) has intensified the demand for effective personalization techniques that can adapt model behavior to individual user preferences. Despite the non-parametric methods utilizing the in-context learning ability of LLMs, recent parametric adaptation methods, including personalized parameter-efficient fine-tuning and reward modeling emerge. However, these methods face limitations in handling dynamic user patterns and high data sparsity scenarios, due to low adaptability and data efficiency. To address these challenges, we propose a fine-grained and instance-tailored steering framework that dynamically generates sample-level interference vectors from user data and injects them into the model's forward pass for personalized adaptation. Our approach introduces two key technical innovations: a fine-grained steering component that captures nuanced signals by hooking activations from attention and MLP layers, and an input-aware aggregation module that synthesizes these signals into contextually relevant enhancements. The method demonstrates high flexibility and data efficiency, excelling in fast-changing distribution and high data sparsity scenarios. In addition, the proposed method is orthogonal to existing methods and operates as a plug-in component compatible with different personalization techniques. Extensive experiments across diverse scenarios--including short-to-long text generation, and web function calling--validate the effectiveness and compatibility of our approach. Results show that our method significantly enhances personalization performance in fast-shifting environments while maintaining robustness across varying interaction modes and context lengths. Implementation is available at https://github.com/KounianhuaDu/Fints.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進化により、モデルの振る舞いを個々のユーザの好みに適応できる効果的なパーソナライズ技術への需要が高まっている。
LLMの文脈内学習能力を利用した非パラメトリック手法にもかかわらず、パーソナライズされたパラメータ効率の微調整や報酬モデリングを含む最近のパラメトリック適応法が出現する。
しかし、これらの手法は、適応性やデータの効率が低いため、動的なユーザパターンや高いデータ分散シナリオを扱う際の制限に直面している。
これらの課題に対処するために,ユーザデータからサンプルレベルの干渉ベクトルを動的に生成し,モデルの前方通過に注入してパーソナライズする,きめ細かな,インスタンスに適したステアリングフレームワークを提案する。
提案手法では,注意層やMLP層からのアクティベーションをフックすることでニュアンス信号を取り出す微細なステアリングコンポーネントと,これらの信号を文脈的に関連する拡張に合成するインプット・アウェア・アグリゲーションモジュールの2つの技術革新を導入する。
この手法は高い柔軟性とデータ効率を示し、高速に変化する分散と高いデータ分散シナリオに優れる。
さらに,提案手法は既存の手法と直交し,異なるパーソナライズ手法と互換性のあるプラグインコンポーネントとして機能する。
短時間から長期のテキスト生成やWeb関数呼び出しなど,さまざまなシナリオにわたる大規模な実験により,我々のアプローチの有効性と互換性が検証された。
提案手法は,対話モードやコンテキスト長の異なる環境において,ロバスト性を保ちながら,高速シフト環境におけるパーソナライズ性能を著しく向上することを示す。
実装はhttps://github.com/KounianhuaDu/Fints.comで公開されている。
関連論文リスト
- Group Relative Augmentation for Data Efficient Action Detection [11.169883977958454]
アクション検出にVLM(Big Video-Language Models)を適応させるには、いくつかの例が課題となっている。
パラメータ係数チューニング(LoRA)と新たな学習可能な内部特徴拡張を組み合わせた効率的な適応戦略を提案する。
複雑なマルチラベル・マルチパーソン動作検出データセットに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2025-07-28T21:46:05Z) - Embedded Federated Feature Selection with Dynamic Sparse Training: Balancing Accuracy-Cost Tradeoffs [1.749521391198341]
textitDynamic Sparse Federated Feature Selection (DSFFS)について述べる。
トレーニング中、入力層ニューロン、それらの接続、および隠れ層接続は動的に切断され、非形式的特徴を排除される。
生物学、画像、スピーチ、テキストを含む9つの実世界のデータセットで、いくつかの実験が実施されている。
論文 参考訳(メタデータ) (2025-04-07T16:33:05Z) - DiffPO: Diffusion-styled Preference Optimization for Efficient Inference-Time Alignment of Large Language Models [50.32663816994459]
拡散型優先度最適化(Diffusion-styled Preference Optimization: モデル)は、LLMを人間と整合させるための効率的でポリシーに依存しないソリューションを提供する。
modelavoidはトークンレベルの生成に関連する時間遅延をモデル化する。
AlpacaEval 2, MT-bench, HH-RLHFの実験により, 種々の環境におけるアライメント性能が良好であることが示された。
論文 参考訳(メタデータ) (2025-03-06T09:21:54Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Adaptive Self-Supervised Learning Strategies for Dynamic On-Device LLM Personalization [3.1944843830667766]
大規模言語モデル(LLM)は私たちがテクノロジと対話する方法に革命をもたらしたが、個々のユーザの好みに対するパーソナライズは依然として大きな課題である。
本稿では,LSMを動的にパーソナライズするために自己指導型学習技術を利用する適応型自己監督学習戦略(ASLS)を提案する。
論文 参考訳(メタデータ) (2024-09-25T14:35:06Z) - Dynamic and Adaptive Feature Generation with LLM [10.142660254703225]
本稿では,特徴生成プロセスの解釈可能性を高める動的かつ適応的な特徴生成手法を提案する。
弊社のアプローチは、さまざまなデータタイプやタスクにまたがって適用性を広げ、戦略的柔軟性よりもアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-06-04T20:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。