論文の概要: Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2311.18244v2
- Date: Sat, 25 May 2024 04:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 08:25:17.028689
- Title: Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks
- Title(参考訳): 反トラストレコメンダシステムの攻撃防止に対する脆弱性の解明
- Authors: Zongwei Wang, Junliang Yu, Min Gao, Hongzhi Yin, Bin Cui, Shazia Sadiq,
- Abstract要約: コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
- 参考スコア(独自算出の注目度): 48.911832772464145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) has recently gained prominence in the domain of recommender systems due to its great ability to enhance recommendation accuracy and improve model robustness. Despite its advantages, this paper identifies a vulnerability of CL-based recommender systems that they are more susceptible to poisoning attacks aiming to promote individual items. Our analysis indicates that this vulnerability is attributed to the uniform spread of representations caused by the InfoNCE loss. Furthermore, theoretical and empirical evidence shows that optimizing this loss favors smooth spectral values of representations. This finding suggests that attackers could facilitate this optimization process of CL by encouraging a more uniform distribution of spectral values, thereby enhancing the degree of representation dispersion. With these insights, we attempt to reveal a potential poisoning attack against CL-based recommender systems, which encompasses a dual-objective framework: one that induces a smoother spectral value distribution to amplify the InfoNCE loss's inherent dispersion effect, named dispersion promotion; and the other that directly elevates the visibility of target items, named rank promotion. We validate the threats of our attack model through extensive experimentation on four datasets. By shedding light on these vulnerabilities, our goal is to advance the development of more robust CL-based recommender systems. The code is available at \url{https://github.com/CoderWZW/ARLib}.
- Abstract(参考訳): コントラスト学習(CL)は、リコメンデーション精度を高め、モデルロバスト性を向上する優れた能力により、リコメンデーターシステムの領域で最近注目を集めている。
本報告では,CLをベースとしたレコメンデータシステムの脆弱性は,その利点にもかかわらず,個々の項目の促進を目的とした毒殺攻撃の影響を受けやすいことを示す。
解析の結果,この脆弱性はInfoNCE損失による表現の均一な拡散に起因することが示唆された。
さらに、理論的および経験的な証拠は、この損失を最適化することは表現の滑らかなスペクトル値を好むことを示している。
この発見は、攻撃者がスペクトル値のより均一な分布を奨励し、表現分散の度合いを高めることにより、CLのこの最適化プロセスを促進できることを示唆している。
これらの知見により,両目的の枠組みを含むCLベースの推薦システムに対する潜在的中毒攻撃を明らかにすることを試みた。これは,InfoNCE損失の固有分散効果を増幅するために,よりスムーズなスペクトル値分布を誘導し,分散促進と,ターゲット項目の視認性を高めることを目的としている。
4つのデータセットで広範囲な実験を行い、攻撃モデルの脅威を検証する。
これらの脆弱性に光を当てることで、私たちの目標は、より堅牢なCLベースのレコメンデータシステムの開発を進めることです。
コードは \url{https://github.com/CoderWZW/ARLib} で公開されている。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Understanding Contrastive Learning via Distributionally Robust
Optimization [29.202594242468678]
本研究は,類似のセマンティクス(ラベルなど)を負のサンプルとして含むサンプリングバイアスに対するコントラッシブラーニング(CL)の固有の耐性を明らかにする。
本研究は,分散ロバスト最適化 (DRO) のレンズを用いてCLを解析することにより,この研究ギャップを橋渡しし,いくつかの重要な知見を得る。
また, CLの過保守性や異常値に対する感受性などの潜在的な欠点を同定し, これらの問題を緩和するための新しいAdjusted InfoNCE損失(ADNCE)を導入する。
論文 参考訳(メタデータ) (2023-10-17T07:32:59Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - ARBEx: Attentive Feature Extraction with Reliability Balancing for Robust Facial Expression Learning [5.648318448953635]
ARBExはVision Transformerによって駆動される新しい注意的特徴抽出フレームワークである。
ラベル分布とマルチヘッド自己保持機構を備えた埋め込み空間において学習可能なアンカーポイントを用いて、弱い予測に対する性能を最適化する。
我々の戦略は、様々な文脈で実施された広範な実験により、現在の最先端の方法論よりも優れています。
論文 参考訳(メタデータ) (2023-05-02T15:10:01Z) - Towards Adversarially Robust Recommendation from Adaptive Fraudster
Detection [9.756305372960423]
GNNベースのレコメンデータシステムであるGraphRfiが提案され、注入された偽ユーザの影響を効果的に緩和することを示した。
我々は、GraphRfiが不正検出コンポーネントの教師付き性質のため、攻撃に対して脆弱なままであることを示す。
特に,GNNベースとMFベースの両方のレコメンデーターシステムに対して,強力な毒殺攻撃であるMetaCを提案する。
論文 参考訳(メタデータ) (2022-11-08T15:38:43Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。