論文の概要: Poisoning Attacks Against Contrastive Recommender Systems
- arxiv url: http://arxiv.org/abs/2311.18244v1
- Date: Thu, 30 Nov 2023 04:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 18:07:26.272208
- Title: Poisoning Attacks Against Contrastive Recommender Systems
- Title(参考訳): コントラストレコメンダシステムに対する中毒攻撃
- Authors: Zongwei Wang, Junliang Yu, Min Gao, Hongzhi Yin, Bin Cui, Shazia Sadiq
- Abstract要約: コントラスト学習(CL)は近年,推薦分野において大きな人気を集めている。
従来の研究では、CLはレコメンデーションの精度を向上するだけでなく、ノイズに対する顕著な堅牢性を示すことも見出されている。
本稿では,CLをベースとしたリコメンデータシステムの脆弱性を特定し,ターゲットアイテムの促進を目的とした毒殺攻撃の危険性を明らかにする。
- 参考スコア(独自算出の注目度): 51.82775185547039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) has recently gained significant popularity in the
field of recommendation. Its ability to learn without heavy reliance on labeled
data is a natural antidote to the data sparsity issue. Previous research has
found that CL can not only enhance recommendation accuracy but also
inadvertently exhibit remarkable robustness against noise. However, this paper
identifies a vulnerability of CL-based recommender systems: Compared with their
non-CL counterparts, they are even more susceptible to poisoning attacks that
aim to promote target items. Our analysis points to the uniform dispersion of
representations led by the CL loss as the very factor that accounts for this
vulnerability. We further theoretically and empirically demonstrate that the
optimization of CL loss can lead to smooth spectral values of representations.
Based on these insights, we attempt to reveal the potential poisoning attacks
against CL-based recommender systems. The proposed attack encompasses a
dual-objective framework: One that induces a smoother spectral value
distribution to amplify the CL loss's inherent dispersion effect, named
dispersion promotion; and the other that directly elevates the visibility of
target items, named rank promotion. We validate the destructiveness of our
attack model through extensive experimentation on four datasets. By shedding
light on these vulnerabilities, we aim to facilitate the development of more
robust CL-based recommender systems.
- Abstract(参考訳): コントラスト学習(CL)は近年,推薦分野において大きな人気を集めている。
ラベル付きデータに依存することなく学習する能力は、データスパーシティの問題に対する自然なアンチドームである。
従来の研究では、CLは推奨精度を向上するだけでなく、ノイズに対する顕著な堅牢性を示すことも見出されている。
しかし,本研究ではclベースのレコメンダシステムの脆弱性を明らかにする。cl以外のシステムと比較すると,ターゲットアイテムの促進を目的とした中毒攻撃の影響を受けやすい。
我々の分析は、CL損失による表現の均一な分散が、この脆弱性の原因となる要因であることを示している。
さらに,cl損失の最適化が表現の滑らかなスペクトル値をもたらすことを理論的に実証する。
これらの知見に基づき、clベースのレコメンダシステムに対する潜在的な中毒攻撃を明らかにする。
提案された攻撃は、cl損失の固有の分散効果を増幅するためにより滑らかなスペクトル値分布を誘導する分散促進(distribution promotion)と呼ばれる攻撃と、ランクプロモーション(rank promotion)と呼ばれるターゲットアイテムの可視性を高める攻撃である。
4つのデータセットを広範囲に実験し,攻撃モデルの破壊性を検証する。
これらの脆弱性に光を当てることで、より堅牢なCLベースのレコメンデータシステムの開発を促進することを目指している。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Understanding Contrastive Learning via Distributionally Robust
Optimization [29.202594242468678]
本研究は,類似のセマンティクス(ラベルなど)を負のサンプルとして含むサンプリングバイアスに対するコントラッシブラーニング(CL)の固有の耐性を明らかにする。
本研究は,分散ロバスト最適化 (DRO) のレンズを用いてCLを解析することにより,この研究ギャップを橋渡しし,いくつかの重要な知見を得る。
また, CLの過保守性や異常値に対する感受性などの潜在的な欠点を同定し, これらの問題を緩和するための新しいAdjusted InfoNCE損失(ADNCE)を導入する。
論文 参考訳(メタデータ) (2023-10-17T07:32:59Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - ARBEx: Attentive Feature Extraction with Reliability Balancing for Robust Facial Expression Learning [5.648318448953635]
ARBExはVision Transformerによって駆動される新しい注意的特徴抽出フレームワークである。
ラベル分布とマルチヘッド自己保持機構を備えた埋め込み空間において学習可能なアンカーポイントを用いて、弱い予測に対する性能を最適化する。
我々の戦略は、様々な文脈で実施された広範な実験により、現在の最先端の方法論よりも優れています。
論文 参考訳(メタデータ) (2023-05-02T15:10:01Z) - Towards Adversarially Robust Recommendation from Adaptive Fraudster
Detection [9.756305372960423]
GNNベースのレコメンデータシステムであるGraphRfiが提案され、注入された偽ユーザの影響を効果的に緩和することを示した。
我々は、GraphRfiが不正検出コンポーネントの教師付き性質のため、攻撃に対して脆弱なままであることを示す。
特に,GNNベースとMFベースの両方のレコメンデーターシステムに対して,強力な毒殺攻撃であるMetaCを提案する。
論文 参考訳(メタデータ) (2022-11-08T15:38:43Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。