論文の概要: Curriculum Approximate Unlearning for Session-based Recommendation
- arxiv url: http://arxiv.org/abs/2508.15263v1
- Date: Thu, 21 Aug 2025 05:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.200179
- Title: Curriculum Approximate Unlearning for Session-based Recommendation
- Title(参考訳): セッションベースレコメンデーションのためのカリキュラム近似アンラーニング
- Authors: Liu Yang, Zhaochun Ren, Ziqi Zhao, Pengjie Ren, Zhumin Chen, Xinyi Li, Shuaiqiang Wang, Dawei Yin, Xin Xin,
- Abstract要約: セッションベースレコメンデーションのための近似アンラーニング(英: Approximate unlearning)とは、特定のトレーニングサンプルの影響をリトレーニングせずにレコメンダから排除することを指す。
グラディエント・アセント(GA)は、近似的アンラーニングを行うための代表的な方法である。
本稿では,セッションベースの推薦に適合した教育用アンラーニングフレームワークであるCAUを紹介する。
- 参考スコア(独自算出の注目度): 56.86137487298901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximate unlearning for session-based recommendation refers to eliminating the influence of specific training samples from the recommender without retraining of (sub-)models. Gradient ascent (GA) is a representative method to conduct approximate unlearning. However, there still exist dual challenges to apply GA for session-based recommendation. On the one hand, naive applying of GA could lead to degradation of recommendation performance. On the other hand, existing studies fail to consider the ordering of unlearning samples when simultaneously processing multiple unlearning requests, leading to sub-optimal recommendation performance and unlearning effect. To address the above challenges, we introduce CAU, a curriculum approximate unlearning framework tailored to session-based recommendation. CAU handles the unlearning task with a GA term on unlearning samples. Specifically, to address the first challenge, CAU formulates the overall optimization task as a multi-objective optimization problem, where the GA term for unlearning samples is combined with retaining terms for preserving performance. The multi-objective optimization problem is solved through seeking the Pareto-Optimal solution, which achieves effective unlearning with trivial sacrifice on recommendation performance. To tackle the second challenge, CAU adopts a curriculum-based sequence to conduct unlearning on batches of unlearning samples. The key motivation is to perform unlearning from easy samples to harder ones. To this end, CAU first introduces two metrics to measure the unlearning difficulty, including gradient unlearning difficulty and embedding unlearning difficulty. Then, two strategies, hard-sampling and soft-sampling, are proposed to select unlearning samples according to difficulty scores.
- Abstract(参考訳): セッションベースレコメンデーションのための近似アンラーニング(英: Approximate unlearning)とは、(サブ)モデルを再トレーニングすることなく、推奨者から特定のトレーニングサンプルの影響を取り除くことを指す。
グラディエント・アセント(GA)は、近似的アンラーニングを行うための代表的な方法である。
しかし、セッションベースのレコメンデーションにGAを適用するという2つの課題がある。
一方,GAの適用は,レコメンデーション性能の低下につながる可能性がある。
一方、既存研究では、複数の未学習要求を同時に処理する際、未学習サンプルの順序付けを考慮せず、準最適推薦性能と未学習効果をもたらす。
上記の課題に対処するため,セッションベースの推薦に適合した教育用アンラーニングフレームワークであるCAUを紹介した。
CAUは、未学習のサンプルのGA項で未学習のタスクを処理する。
特に、最初の課題に対処するために、CAUは、全体最適化タスクを多目的最適化問題として定式化し、未学習サンプルのGA項と、性能を維持するための項を組み合わせている。
多目的最適化問題はパレート最適解を求めることによって解決され、推薦性能を犠牲にして効果的な未学習を実現する。
2つ目の課題に取り組むために、CAUはカリキュラムベースのシーケンスを採用し、未学習サンプルのバッチ上でアンラーニングを行う。
重要なモチベーションは、簡単なサンプルから難しいサンプルまで、アンラーニングを実行することです。
この目的のために、CAUはまず、未学習の難易度測定と未学習の難易度埋め込みという2つの指標を導入している。
次に,難易度に応じて未学習サンプルを選択するために,ハードサンプリングとソフトサンプリングという2つの戦略を提案する。
関連論文リスト
- Progressive Mastery: Customized Curriculum Learning with Guided Prompting for Mathematical Reasoning [43.12759195699103]
大規模言語モデル(LLM)は、様々な推論タスクにおいて顕著な性能を達成しているが、非効率なサンプル利用と非フレキシブルな難易度サンプル処理によって後処理が制限されている。
本稿では,2つの重要なイノベーションを持つ新しいフレームワークであるCustomized Curriculum Learning (CCL)を提案する。
まず,各モデルの個々の能力に基づいてカリキュラムデータセットをカスタマイズする,モデル適応的難易度定義を導入する。
第2に,戦略的なヒントによって標本の難易度を動的に低減し,性能を低下させるような挑戦的な試料を効果的に活用する「ガイド・プロンプティング」を開発した。
論文 参考訳(メタデータ) (2025-06-04T15:31:46Z) - Unlocking the Potential of Difficulty Prior in RL-based Multimodal Reasoning [69.64809103333839]
先行情報に対する問題の難易度を明示的にモデル化し,多モーダル推論における強化学習に基づく微調整の有効性を検証した。
提案手法は,2段階学習データのみを2K+0.6Kとする多モード数学的推論ベンチマークにおいて有意な性能を示す。
論文 参考訳(メタデータ) (2025-05-19T15:43:10Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Pareto Self-Supervised Training for Few-Shot Learning [5.6715399725748155]
少数の補助学習は最近少数の分類されたデータを扱うために多くの注意を引き付けました。
タスクのバランスとタスクの衝突を減らすために適切な重みを選択することは難しい。
論文 参考訳(メタデータ) (2021-04-16T01:26:25Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Adaptive Adversarial Logits Pairing [65.51670200266913]
逆行訓練ソリューションであるAdversarial Logits Pairing (ALP)は、脆弱なものに比べて、高い貢献度を少なくする傾向にある。
これらの観測により,適応型対数対数対数対数対数対数法 (AALP) を設計し,ALPのトレーニングプロセスとトレーニングターゲットを変更する。
AALPは適応的な機能最適化モジュールと Guided Dropout から構成されており、より少ない高コントリビューション機能を体系的に追求する。
論文 参考訳(メタデータ) (2020-05-25T03:12:20Z) - Progressive Multi-Stage Learning for Discriminative Tracking [25.94944743206374]
本稿では,頑健な視覚追跡のためのサンプル選択の段階的多段階最適化ポリシを用いた共同識別学習手法を提案する。
提案手法は, 時間重み付き, 検出誘導型セルフペースト学習戦略により, 簡単なサンプル選択を行う。
ベンチマークデータセットの実験では、提案した学習フレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2020-04-01T07:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。