論文の概要: When Graph Contrastive Learning Backfires: Spectral Vulnerability and Defense in Recommendation
- arxiv url: http://arxiv.org/abs/2507.07436v1
- Date: Thu, 10 Jul 2025 05:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.281374
- Title: When Graph Contrastive Learning Backfires: Spectral Vulnerability and Defense in Recommendation
- Title(参考訳): グラフコントラスト学習のバックファイア時--勧告におけるスペクトル脆弱性と防御-
- Authors: Zongwei Wang, Min Gao, Junliang Yu, Shazia Sadiq, Hongzhi Yin, Ling Liu,
- Abstract要約: グラフコントラスト学習(GCL)は,レコメンダシステムの堅牢性向上に大きく貢献している。
本稿では、GCLの統合により、ターゲットのプロモーションアタックに対するレコメンデータの感受性が必然的に向上する、予期せぬ脆弱性を明らかにする。
- 参考スコア(独自算出の注目度): 38.71151291554835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Contrastive Learning (GCL) has demonstrated substantial promise in enhancing the robustness and generalization of recommender systems, particularly by enabling models to leverage large-scale unlabeled data for improved representation learning. However, in this paper, we reveal an unexpected vulnerability: the integration of GCL inadvertently increases the susceptibility of a recommender to targeted promotion attacks. Through both theoretical investigation and empirical validation, we identify the root cause as the spectral smoothing effect induced by contrastive optimization, which disperses item embeddings across the representation space and unintentionally enhances the exposure of target items. Building on this insight, we introduce CLeaR, a bi-level optimization attack method that deliberately amplifies spectral smoothness, enabling a systematic investigation of the susceptibility of GCL-based recommendation models to targeted promotion attacks. Our findings highlight the urgent need for robust countermeasures; in response, we further propose SIM, a spectral irregularity mitigation framework designed to accurately detect and suppress targeted items without compromising model performance. Extensive experiments on multiple benchmark datasets demonstrate that, compared to existing targeted promotion attacks, GCL-based recommendation models exhibit greater susceptibility when evaluated with CLeaR, while SIM effectively mitigates these vulnerabilities.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、特に大規模な未ラベルデータを活用して表現学習を改善することによって、リコメンダシステムの堅牢性と一般化の強化に大きく貢献している。
しかし,本論文では,GCLの統合が必然的に,ターゲットのプロモーション攻撃に対するレコメンデータの感受性を増大させるという,予期せぬ脆弱性を明らかにした。
理論的研究と実証的検証の両面から、根本原因をコントラスト最適化によって誘導されるスペクトル平滑化効果として同定し、表現空間にアイテム埋め込みを分散させ、意図せず対象項目の露出を増強する。
この知見に基づいて,両レベルの最適化攻撃手法であるCLeaRを導入し,スペクトルの滑らかさを意図的に増幅し,GCLベースの推奨モデルがターゲットのプロモーション攻撃に対する感受性を体系的に調査する。
そこで本研究では, モデル性能を損なうことなく, 対象物を正確に検出・抑制することを目的とした, スペクトル不規則性軽減フレームワークであるSIMを提案する。
複数のベンチマークデータセットに対する大規模な実験では、既存のターゲットプロモーションアタックと比較して、GCLベースのレコメンデーションモデルでは、CLeaRで評価した場合の感受性が向上し、SIMはこれらの脆弱性を効果的に軽減することが示された。
関連論文リスト
- DARTS: A Dual-View Attack Framework for Targeted Manipulation in Federated Sequential Recommendation [0.0]
フェデレートされたレコメンデーション(FedRec)は、パーソナライズされたモデルの分散トレーニングを可能にすることによって、ユーザのプライバシを保護します。
本稿では,DV-FSRと呼ばれる新しいデュアルビューアタックフレームワークを提案する。このフレームワークは,サンプリングに基づく明示的戦略と対照的な学習に基づく暗黙的勾配戦略を組み合わせて,協調攻撃を編成する。
論文 参考訳(メタデータ) (2025-07-02T05:57:09Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - Supervised Optimism Correction: Be Confident When LLMs Are Sure [91.7459076316849]
教師付き微調整とオフライン強化学習の間には,新たな理論的関係が確立されている。
広く使われているビームサーチ法は、許容できない過度な最適化に悩まされていることを示す。
本稿では,トークンレベル$Q$-value推定のための簡易かつ効果的な補助的損失を導入したSupervised Optimism Correctionを提案する。
論文 参考訳(メタデータ) (2025-04-10T07:50:03Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - Towards Adversarially Robust Recommendation from Adaptive Fraudster
Detection [9.756305372960423]
GNNベースのレコメンデータシステムであるGraphRfiが提案され、注入された偽ユーザの影響を効果的に緩和することを示した。
我々は、GraphRfiが不正検出コンポーネントの教師付き性質のため、攻撃に対して脆弱なままであることを示す。
特に,GNNベースとMFベースの両方のレコメンデーターシステムに対して,強力な毒殺攻撃であるMetaCを提案する。
論文 参考訳(メタデータ) (2022-11-08T15:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。