論文の概要: U-CAN: Utility-Aware Contrastive Attenuation for Efficient Unlearning in Generative Recommendation
- arxiv url: http://arxiv.org/abs/2602.23400v1
- Date: Thu, 26 Feb 2026 07:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.075518
- Title: U-CAN: Utility-Aware Contrastive Attenuation for Efficient Unlearning in Generative Recommendation
- Title(参考訳): U-CAN: ジェネレーティブ・レコメンデーションにおける効率的なアンラーニングのための実用性を考慮したコントラスト減衰
- Authors: Zezheng Wu, Rui Wang, Xinghe Cheng, Yang Shao, Qing Yang, Jiapu Wang, Jingwei Zhang,
- Abstract要約: 本稿では,低ランクアダプタで動作する高精度アンラーニングフレームワークであるContrastive AttenuatioN(U-CAN)を提案する。
U-CANは、アクティベーションの対比によってリスクを定量化し、非対称な応答を持つニューロンに焦点をあてる。
ネットワーク構造を断片化する二分法プルーニングとは異なり、U-CANは微分可能な減衰関数を持つ適応性軟減衰を発達させる。
- 参考スコア(独自算出の注目度): 9.680511155102623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Recommendation (GenRec) typically leverages Large Language Models (LLMs) to redefine personalization as an instruction-driven sequence generation task. However, fine-tuning on user logs inadvertently encodes sensitive attributes into model parameters, raising critical privacy concerns. Existing Machine Unlearning (MU) techniques struggle to navigate this tension due to the Polysemy Dilemma, where neurons superimpose sensitive data with general reasoning patterns, leading to catastrophic utility loss under traditional gradient or pruning methods. To address this, we propose Utility-aware Contrastive AttenuatioN (U-CAN), a precision unlearning framework that operates on low-rank adapters. U-CAN quantifies risk by contrasting activations and focuses on neurons with asymmetric responses that are highly sensitive to the forgetting set but suppressed on the retention set. To safeguard performance, we introduce a utility-aware calibration mechanism that combines weight magnitudes with retention-set activation norms, assigning higher utility scores to dimensions that contribute strongly to retention performance. Unlike binary pruning, which often fragments network structure, U-CAN develop adaptive soft attenuation with a differentiable decay function to selectively down-scale high-risk parameters on LoRA adapters, suppressing sensitive retrieval pathways and preserving the topological connectivity of reasoning circuits. Experiments on two public datasets across seven metrics demonstrate that U-CAN achieves strong privacy forgetting, utility retention, and computational efficiency.
- Abstract(参考訳): Generative Recommendation (GenRec) は通常、命令駆動シーケンス生成タスクとしてパーソナライズを再定義するために、Large Language Models (LLM) を利用する。
しかし、ユーザログの微調整は、機密性の高い属性をモデルパラメータに不注意にエンコードし、重要なプライバシー上の懸念を引き起こす。
既存のマシン・アンラーニング(MU)技術は、ニューロンが一般的な推論パターンでセンシティブなデータを重畳し、従来の勾配法やプルーニング法で破滅的な実用性を失うというポリセミー・ジレンマ(Polysemy Dilemma)のために、この緊張をナビゲートするのに苦労している。
そこで本研究では,低ランクアダプタで動作する高精度アンラーニングフレームワークであるU-CANを提案する。
U-CANは、アクティベーションの対比によってリスクを定量化し、非対称な応答を持つニューロンに焦点をあてる。
性能の保護を目的として,重大度と保持セットのアクティベーション基準を組み合わせた実用性を考慮したキャリブレーション機構を導入し,保持性能に強く寄与する次元に高い実用性スコアを割り当てる。
ネットワーク構造を断片化するバイナリプルーニングとは異なり、U-CANは可変減衰関数で適応性のあるソフト減衰を発生させ、LoRAアダプタ上の高リスクパラメータを選択的にダウンスケールさせ、感度の高い検索経路を抑え、推論回路のトポロジ的接続を維持する。
7つのメトリクスにわたる2つの公開データセットの実験は、U-CANが強力なプライバシの忘れ、ユーティリティ保持、計算効率を達成することを実証している。
関連論文リスト
- MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - Feature-Selective Representation Misdirection for Machine Unlearning [34.167873590478074]
マシンアンラーニングは、デプロイされたモデルが進化する法律、安全、ガバナンス要件に準拠することを確実にするのに役立つ。
現在の未学習のテクニックは、データセットの忘れと保持のクリーンな分離を前提としている。
本稿では,アクティベーション編集フレームワークSRMU(Selective Representation Misdirection for Unlearning)を提案する。
論文 参考訳(メタデータ) (2025-12-18T08:31:50Z) - Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - EKPC: Elastic Knowledge Preservation and Compensation for Class-Incremental Learning [53.88000987041739]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、AIモデルを、時間とともに異なるクラスのシーケンシャルに到着したデータから継続的に学習可能にすることを目的としている。
本稿では, 重要度を考慮した重要度正規化 (IPR) と CIL のためのトレーニング可能なセマンティックドリフト補償 (TSDC) を統合したElastic Knowledge Preservation and Compensation (EKPC) 法を提案する。
論文 参考訳(メタデータ) (2025-06-14T05:19:58Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - A Blessing of Dimensionality in Membership Inference through
Regularization [29.08230123469755]
モデルのパラメータ数がいかにプライバシーとユーティリティのトレードオフを引き起こすかを示す。
次に、適切な一般化正規化と組み合わせることで、モデルのパラメータの数を増やすことで、そのプライバシと性能の両方を実際に増加させることができることを示す。
論文 参考訳(メタデータ) (2022-05-27T15:44:00Z) - Reducing Predictive Feature Suppression in Resource-Constrained
Contrastive Image-Caption Retrieval [65.33981533521207]
我々は、リソース制約のあるICR手法における予測的特徴抑圧を減らすアプローチを提案する:潜在目標デコーディング(LTD)
LTDは、汎用文エンコーダの潜時空間で入力キャプションを再構成し、画像及びキャプションエンコーダが予測的特徴を抑制するのを防止する。
実験の結果,入力空間における入力キャプションの再構成とは異なり,LTDはリコール@k,r精度,nDCGスコアを高くすることで,予測的特徴抑制を低減できることがわかった。
論文 参考訳(メタデータ) (2022-04-28T09:55:28Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。