論文の概要: Personalized Parameter-Efficient Fine-Tuning of Foundation Models for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2602.09445v1
- Date: Tue, 10 Feb 2026 06:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.404773
- Title: Personalized Parameter-Efficient Fine-Tuning of Foundation Models for Multimodal Recommendation
- Title(参考訳): マルチモーダルレコメンデーションのための基礎モデルのパーソナライズされたパラメータ効率の良い微調整
- Authors: Sunwoo Kim, Hyunjin Hwang, Kijung Shin,
- Abstract要約: マルチモーダルレコメンデーションのためのパーソナライズされたPEFT戦略であるPerPEFTを提案する。
PerPEFTはユーザを興味を持ってグループ化し、それぞれのグループに異なるPEFTモジュールを割り当てる。
PerPEFTが最強のベースラインを最大15.3%上回っていることを示す。
- 参考スコア(独自算出の注目度): 32.929829644407256
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, substantial research has integrated multimodal item metadata into recommender systems, often by using pre-trained multimodal foundation models to encode such data. Since these models are not originally trained for recommendation tasks, recent works efficiently adapt them via parameter-efficient fine-tuning (PEFT). However, even with PEFT, item embeddings from multimodal foundation models remain user-blind: item embeddings are not conditioned on user interests, despite the fact that users with diverse interests attend to different item aspects. To address this limitation, we propose PerPEFT, a personalized PEFT strategy for multimodal recommendation. Specifically, PerPEFT groups users by interest and assigns a distinct PEFT module to each group, enabling each module to capture the fine-grained item aspects most predictive of that group`s purchase decisions. We further introduce a specialized training technique that strengthens this user-group conditioning. Notably, PerPEFT is PEFT-agnostic and can be paired with any PEFT method applicable to multimodal foundation models. Through extensive experiments, we show that (1) PerPEFT outperforms the strongest baseline by up to 15.3% (NDCG@20) and (2) delivers consistent gains across diverse PEFT variants. It is noteworthy that, even with personalization, PEFT remains lightweight, adding only 1.3% of the parameter count of the foundation model. We provide our code and datasets at https://github.com/kswoo97/PerPEFT.
- Abstract(参考訳): 近年,マルチモーダルアイテムのメタデータをレコメンデーションシステムに統合する研究が盛んに行われている。
これらのモデルは、もともとレコメンデーションタスクのために訓練されていないため、最近の研究はパラメータ効率の良い微調整(PEFT)によって効果的に適応している。
しかし,PEFTの場合においても,マルチモーダルファウンデーションモデルからの項目埋め込みは依然としてユーザにとっての盲目である。
この制限に対処するため,マルチモーダルレコメンデーションのためのパーソナライズされたPEFT戦略であるPerPEFTを提案する。
具体的には、PerPEFTはユーザを興味を持ってグループ化し、各グループに個別のPEFTモジュールを割り当てる。
さらに、このユーザグループ条件付けを強化するための特別訓練手法を導入する。
特に、PerPEFTはPEFT非依存であり、マルチモーダル基礎モデルに適用可能な任意のPEFTメソッドと組み合わせることができる。
広範な実験により,(1)PerPEFTは最大15.3%(NDCG@20)で最強のベースラインを上回り,(2)多様なPEFT変異体に対して一貫したゲインを提供することを示した。
PEFTはパーソナライズしても軽量であり、基礎モデルのパラメータの1.3%しか加えていない点に注意が必要である。
コードとデータセットはhttps://github.com/kswoo97/PerPEFT.comで公開しています。
関連論文リスト
- Instant Personalized Large Language Model Adaptation via Hypernetwork [56.512539596908745]
Profile-to-PEFTは、ハイパーネットワークでトレーニングされたエンドツーエンドを使用して、ユーザのエンコードされたプロファイルを直接、アダプタパラメータの完全なセットにマッピングするスケーラブルなフレームワークである。
提案手法は,展開時に計算資源を著しく減らしながら,プロンプトベースのパーソナライゼーションとOPPUの両方に優れることを示す。
論文 参考訳(メタデータ) (2025-10-18T00:41:25Z) - FedP$^2$EFT: Federated Learning to Personalize PEFT for Multilingual LLMs [12.700519417735798]
フェデレートラーニング(FL)は多言語多言語大言語モデル(LLM)を多言語多言語多言語データで訓練することを可能にする。
We propose FedP$2$EFT, a federated learning-to-personalize method for multilingual LLMs in cross-device FL settings。
論文 参考訳(メタデータ) (2025-02-05T21:36:21Z) - Democratizing Large Language Models via Personalized Parameter-Efficient Fine-tuning [36.88126051792774]
大規模言語モデル(LLM)のパーソナライゼーションはますます重要になっている。
1つのPEFT Per User (OPPU) は、パーソナライズされたパラメータ効率の微調整(PEFT)モジュールを使用して、ユーザ固有の行動パターンと好みを保存する。
OPPUは、LaMPベンチマークの7つのタスクで既存のプロンプトベースのメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-02-06T21:03:52Z) - ComPEFT: Compression for Communicating Parameter Efficient Updates via Sparsification and Quantization [92.36876698509164]
PEFTモデルにおける微調整残差(タスクベクトル)を圧縮する新しい手法であるComPEFTを提案する。
200M - 65Bパラメータを持つT5, T0, LLaMA ベースのモデルにおいて, ComPEFT は圧縮比 8x - 50x を達成する。
論文 参考訳(メタデータ) (2023-11-22T05:28:59Z) - Non-Intrusive Adaptation: Input-Centric Parameter-efficient Fine-Tuning
for Versatile Multimodal Modeling [42.42235704360381]
大規模言語モデル(LLM)と視覚言語モデル(VLM)は、幅広いタスクにおいて優れた性能を示す。
これらの大規模化により、関心のあるタスクを前提とした、完全に専門的なモデルへの適応と展開が不可能になる。
本研究では,AdaLinkを,競合性能を実現する非侵入型PEFT技術として記述する。
論文 参考訳(メタデータ) (2023-10-18T16:43:08Z) - AutoPEFT: Automatic Configuration Search for Parameter-Efficient
Fine-Tuning [77.61565726647784]
ニューラルアーキテクチャ検索の進歩により,自動PEFT設定選択のためのAutoPEFTを提案する。
本稿では,AutoPEFTが検出した構成が既存のPEFT法よりも大幅に優れており,FFTと同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2023-01-28T08:51:23Z) - UniPELT: A Unified Framework for Parameter-Efficient Language Model
Tuning [64.638804236566]
本稿では,異なるPELTメソッドをサブモジュールとして組み込んだ統一フレームワークUniPELTを提案する。
注目すべきは、GLUEベンチマークにおいて、UniPELTは、異なる設定で微調整を組み込んだり、性能を上回る、最高のPELTメソッドと比較して、一貫して13パーセントのゲインを達成していることだ。
論文 参考訳(メタデータ) (2021-10-14T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。