論文の概要: Robustness of Deep Recommendation Systems to Untargeted Interaction
Perturbations
- arxiv url: http://arxiv.org/abs/2201.12686v1
- Date: Sat, 29 Jan 2022 23:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 20:00:00.232448
- Title: Robustness of Deep Recommendation Systems to Untargeted Interaction
Perturbations
- Title(参考訳): 非目標相互作用摂動に対するディープレコメンデーションシステムのロバスト性
- Authors: Sejoon Oh, Srijan Kumar
- Abstract要約: 本研究では,ユーザとイテム間のインタラクションが意図しない,あるいは敵対的な設定で乱される,新たなフレームワークを開発する。
4つの一般的な推奨モデルが1つのランダム摂動に対して不安定であることを示す。
本稿では,最大カスケード効果を誘導する相互作用を同定し,摂動する対向摂動法CASPERを提案する。
- 参考スコア(独自算出の注目度): 11.921365836430658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning-based sequential recommender systems are widely used in
practice, their sensitivity to untargeted training data perturbations is
unknown. Untargeted perturbations aim to modify ranked recommendation lists for
all users at test time, by inserting imperceptible input perturbations during
training time. Existing perturbation methods are mostly targeted attacks
optimized to change ranks of target items, but not suitable for untargeted
scenarios. In this paper, we develop a novel framework in which user-item
training interactions are perturbed in unintentional and adversarial settings.
First, through comprehensive experiments on four datasets, we show that four
popular recommender models are unstable against even one random perturbation.
Second, we establish a cascading effect in which minor manipulations of early
training interactions can cause extensive changes to the model and the
generated recommendations for all users. Leveraging this effect, we propose an
adversarial perturbation method CASPER which identifies and perturbs an
interaction that induces the maximal cascading effect. Experimentally, we
demonstrate that CASPER reduces the stability of recommendation models the
most, compared to several baselines and state-of-the-art methods. Finally, we
show the runtime and success of CASPER scale near-linearly with the dataset
size and the number of perturbations, respectively.
- Abstract(参考訳): ディープラーニングベースのシーケンシャルレコメンデーションシステムは広く使われているが、対象外のトレーニングデータに対する感度は不明である。
目標外の摂動は、トレーニング中に不可避な入力摂動を挿入することで、テスト時にすべてのユーザに対してランク付けされたレコメンデーションリストを変更することを目的としている。
既存の摂動法は、ターゲットアイテムのランクを変えるために最適化されたターゲット攻撃であるが、ターゲット外シナリオには適していない。
本稿では,非意図的および非敵対的設定において,ユーザとテーマのトレーニングインタラクションを摂動させる新しい枠組みを提案する。
まず、4つのデータセットに関する包括的な実験を通して、4つの一般的な推奨モデルが1つのランダムな摂動に対して不安定であることを示す。
第2に,初期トレーニングインタラクションのマイナーな操作がモデルに大きな変化をもたらし,すべてのユーザに対してレコメンデーションが生成されるというカスケード効果を確立する。
この効果を利用して、最大カスケード効果を誘導する相互作用を同定し、摂動する対向摂動法CASPERを提案する。
CASPERは,いくつかのベースラインや最先端手法と比較して,推奨モデルの安定性を最も低くすることを示した。
最後に, データセットサイズと摂動数に応じて, CASPERスケールのランタイムと成功をほぼ直線的に示す。
関連論文リスト
- Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Behavior-Contextualized Item Preference Modeling for Multi-Behavior Recommendation [30.715182718492244]
本稿では,マルチビヘイビア・レコメンデーションのためのビヘイビア・コンテクスチュアライズド・アイテム・プライオリティ・モデリング(BCIPM)を提案する。
提案する行動文脈化項目選好ネットワークは,それぞれの行動の中でユーザの特定の項目選好を識別し,学習する。
その後、最終勧告の目的行動に関連する嗜好のみを考慮し、補助行動からノイズを著しく低減する。
論文 参考訳(メタデータ) (2024-04-28T12:46:36Z) - Towards More Robust and Accurate Sequential Recommendation with
Cascade-guided Adversarial Training [54.56998723843911]
シーケンシャルレコメンデーションモデルの性質に特有の2つの特性は、その堅牢性を損なう可能性がある。
本稿では,シーケンシャルレコメンデーションモデルに特化して設計された,新たな逆行訓練法であるカスケード誘導逆行訓練を提案する。
論文 参考訳(メタデータ) (2023-04-11T20:55:02Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。