論文の概要: LEGO: A Lightweight and Efficient Multiple-Attribute Unlearning Framework for Recommender Systems
- arxiv url: http://arxiv.org/abs/2510.20327v1
- Date: Thu, 23 Oct 2025 08:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.541386
- Title: LEGO: A Lightweight and Efficient Multiple-Attribute Unlearning Framework for Recommender Systems
- Title(参考訳): LEGO: Recommenderシステムのための軽量で効率的なマルチ属性学習フレームワーク
- Authors: Fengyuan Yu, Yuyuan Li, Xiaohua Feng, Junjie Fang, Tao Wang, Chaochao Chen,
- Abstract要約: 既存の単一属性の未学習メソッドは、現実世界のプライバシー保護要件を満たすことができない。
LEGOは軽量で効率的なマルチ属性な未学習フレームワークである。
- 参考スコア(独自算出の注目度): 19.32395562930488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing demand for safeguarding sensitive user information in recommender systems, recommendation attribute unlearning is receiving increasing attention. Existing studies predominantly focus on single-attribute unlearning. However, privacy protection requirements in the real world often involve multiple sensitive attributes and are dynamic. Existing single-attribute unlearning methods cannot meet these real-world requirements due to i) CH1: the inability to handle multiple unlearning requests simultaneously, and ii) CH2: the lack of efficient adaptability to dynamic unlearning needs. To address these challenges, we propose LEGO, a lightweight and efficient multiple-attribute unlearning framework. Specifically, we divide the multiple-attribute unlearning process into two steps: i) Embedding Calibration removes information related to a specific attribute from user embedding, and ii) Flexible Combination combines these embeddings into a single embedding, protecting all sensitive attributes. We frame the unlearning process as a mutual information minimization problem, providing LEGO a theoretical guarantee of simultaneous unlearning, thereby addressing CH1. With the two-step framework, where Embedding Calibration can be performed in parallel and Flexible Combination is flexible and efficient, we address CH2. Extensive experiments on three real-world datasets across three representative recommendation models demonstrate the effectiveness and efficiency of our proposed framework. Our code and appendix are available at https://github.com/anonymifish/lego-rec-multiple-attribute-unlearning.
- Abstract(参考訳): 推薦システムにおけるセンシティブなユーザ情報の保護に対する需要が高まっており、未学習のレコメンデーション属性が注目されている。
現存する研究は、主に単一属性の未学習に焦点を当てている。
しかし、現実の世界のプライバシー保護要件は、しばしば複数の機密属性を伴い、動的である。
既存の単一属性の未学習手法は、これらの現実世界の要件を満たすことができない
一)複数の未学習要求を同時に処理できないこと、及び
ii) CH2: 動的アンラーニングニーズに対する効率的な適応性の欠如。
これらの課題に対処するために,軽量で効率的なマルチ属性な未学習フレームワークであるLEGOを提案する。
具体的には、マルチ属性の未学習プロセスを2つのステップに分けます。
一 利用者の埋め込みから特定属性に関する情報を取り除き、
二 フレキシブルコンバレーションは、これらの埋め込みを単一の埋め込みに組み合わせ、すべての機密属性を保護します。
我々は、学習過程を相互情報の最小化問題とみなし、LEGOに同時学習の理論的保証を与え、CH1に対処する。
2段階のフレームワークでは、Embedding Calibrationを並列に実行でき、フレキシブルなコンビネーションは柔軟で効率的です。
3つの代表的なレコメンデーションモデルにまたがる3つの実世界のデータセットに対する大規模な実験により、提案フレームワークの有効性と効率を実証した。
私たちのコードと付録はhttps://github.com/anonymifish/lego-rec-multiple-attribute-unlearningで公開されています。
関連論文リスト
- Hierarchical Federated Unlearning for Large Language Models [5.406594712642111]
大きな言語モデル(LLM)は、現実のアプリケーションにますます統合され、プライバシやセキュリティ、望ましくない知識を取り除く必要性への懸念が高まっている。
スケーラブルでプライバシーを保護できるLLMのためのフェデレーション・アンラーニング・アプローチを提案する。
本手法は,タスク固有のアダプタ学習を通じて学習と保持を分離し,競合する目的を緩和するために階層的なマージ戦略を採用する。
論文 参考訳(メタデータ) (2025-10-19T04:24:51Z) - Selection and Exploitation of High-Quality Knowledge from Large Language Models for Recommendation [10.585520748427033]
このフレームワークは、知識フィルタリングモジュールと埋め込み空間アライメントモジュールの2つの重要なコンポーネントで構成されている。
実験結果は知識フィルタリングとアライメントモジュールの両方の必要性と有効性を検証する。
抽出者のみのトレーニング戦略は、知識強化された推奨に対する新たな視点を提供する。
論文 参考訳(メタデータ) (2025-08-10T08:03:01Z) - DART: Dual Adaptive Refinement Transfer for Open-Vocabulary Multi-Label Recognition [59.203152078315235]
Open-Vocabulary Multi-Label Recognition (OV-MLR)は、画像内の複数の見えないオブジェクトカテゴリを識別することを目的としている。
ビジョンランゲージ事前学習モデルは強力なオープン語彙基盤を提供するが、弱い監督下では微粒な局所化に苦慮する。
本稿では,これらの制約を克服するためのDART(Dual Adaptive Refinement Transfer)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-07T17:22:33Z) - CKAA: Cross-subspace Knowledge Alignment and Aggregation for Robust Continual Learning [80.18781219542016]
継続的学習(CL)は、シーケンシャルなタスクストリームから継続的に学習するAIモデルに権限を与える。
近年,パラメータ効率のよい微調整(PEFT)によるCL法が注目されている。
ミスリード型タスクIDに対するロバスト性を高めるために,クロスサブスペース・ナレッジアライメント・アグリゲーション(CKAA)を提案する。
論文 参考訳(メタデータ) (2025-07-13T03:11:35Z) - Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness [30.596695293390415]
補間近似測定(Interpolated Approximate Measurement, IAM)は、非学習推論用に設計されたフレームワークである。
IAMは、クエリされたサンプルに対するモデルの一般化適合行動ギャップを補間することにより、サンプルレベルの未学習完全性を定量化する。
IAMを最近の近似アンラーニングアルゴリズムに適用し、オーバーアンラーニングとアンダーアンラーニングの両方のリスクを明らかにする。
論文 参考訳(メタデータ) (2025-06-06T14:22:18Z) - UniErase: Towards Balanced and Precise Unlearning in Language Models [69.04923022755547]
大規模言語モデル(LLM)は、古い情報問題に対処するために反復的な更新を必要とする。
UniEraseは、知識の未学習と能力保持の間の精度とバランスの取れたパフォーマンスを示す、新しいアンラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Efficient Machine Unlearning by Model Splitting and Core Sample Selection [4.634454848598446]
我々は、より効率的で正確なアンラーニング戦略を可能にする標準のアンラーニング指標の変種を導入する。
また、多くの場合、正確な未学習を可能にする未学習の訓練手順も提示する。
正確なアンラーニングが実現不可能な場合、MaxRRは、完全なリトレーニングによって達成されたプロパティと密接にマッチした、効率的なアンラーニングをサポートします。
論文 参考訳(メタデータ) (2025-05-11T15:42:11Z) - Hybrid Discriminative Attribute-Object Embedding Network for Compositional Zero-Shot Learning [83.10178754323955]
HDA-OE(Hybrid Discriminative Attribute-Object Embedding)ネットワークは,属性とオブジェクトの視覚表現との複雑な相互作用を解決するために提案される。
トレーニングデータの多様性を高めるため、HDA-OEは属性駆動型データ合成(ADDS)モジュールを導入した。
HDA-OEは、モデルの識別能力をさらに向上するため、サブクラス駆動の差別的埋め込み(SDDE)モジュールを導入している。
提案モデルを3つのベンチマークデータセットで評価し,その妥当性と信頼性を検証した。
論文 参考訳(メタデータ) (2024-11-28T09:50:25Z) - From Holistic to Localized: Local Enhanced Adapters for Efficient Visual Instruction Fine-Tuning [102.18178065928426]
効率的なビジュアルインストラクションファインタニング(EVIT)は、最小の計算オーバーヘッドで下流タスクにマルチモーダル大言語モデル(MLLM)を適用することを目指している。
本稿では,Dual Low-Rank Adaptation (Dual-LoRA)を提案する。
論文 参考訳(メタデータ) (2024-11-19T11:03:09Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Siamese Attribute-missing Graph Auto-encoder [35.79233150253881]
我々は,Samese Attribute-missing Graph Auto-Encoder (SAGA)を提案する。
まず、両方のプロセスで学習したパラメータを共有するために、シアムネットワーク構造を導入することで、属性の埋め込みと構造埋め込みを絡み合わせる。
第二に, K-nearest neighbor (KNN) と構造制約強化学習機構を導入し, 欠落属性の潜伏特性の質を向上させる。
論文 参考訳(メタデータ) (2021-12-09T11:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。