論文の概要: When Graph Contrastive Learning Backfires: Spectral Vulnerability and Defense in Recommendation
- arxiv url: http://arxiv.org/abs/2507.07436v1
- Date: Thu, 10 Jul 2025 05:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.281374
- Title: When Graph Contrastive Learning Backfires: Spectral Vulnerability and Defense in Recommendation
- Title(参考訳): グラフコントラスト学習のバックファイア時--勧告におけるスペクトル脆弱性と防御-
- Authors: Zongwei Wang, Min Gao, Junliang Yu, Shazia Sadiq, Hongzhi Yin, Ling Liu,
- Abstract要約: グラフコントラスト学習(GCL)は,レコメンダシステムの堅牢性向上に大きく貢献している。
本稿では、GCLの統合により、ターゲットのプロモーションアタックに対するレコメンデータの感受性が必然的に向上する、予期せぬ脆弱性を明らかにする。
- 参考スコア(独自算出の注目度): 38.71151291554835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Contrastive Learning (GCL) has demonstrated substantial promise in enhancing the robustness and generalization of recommender systems, particularly by enabling models to leverage large-scale unlabeled data for improved representation learning. However, in this paper, we reveal an unexpected vulnerability: the integration of GCL inadvertently increases the susceptibility of a recommender to targeted promotion attacks. Through both theoretical investigation and empirical validation, we identify the root cause as the spectral smoothing effect induced by contrastive optimization, which disperses item embeddings across the representation space and unintentionally enhances the exposure of target items. Building on this insight, we introduce CLeaR, a bi-level optimization attack method that deliberately amplifies spectral smoothness, enabling a systematic investigation of the susceptibility of GCL-based recommendation models to targeted promotion attacks. Our findings highlight the urgent need for robust countermeasures; in response, we further propose SIM, a spectral irregularity mitigation framework designed to accurately detect and suppress targeted items without compromising model performance. Extensive experiments on multiple benchmark datasets demonstrate that, compared to existing targeted promotion attacks, GCL-based recommendation models exhibit greater susceptibility when evaluated with CLeaR, while SIM effectively mitigates these vulnerabilities.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、特に大規模な未ラベルデータを活用して表現学習を改善することによって、リコメンダシステムの堅牢性と一般化の強化に大きく貢献している。
しかし,本論文では,GCLの統合が必然的に,ターゲットのプロモーション攻撃に対するレコメンデータの感受性を増大させるという,予期せぬ脆弱性を明らかにした。
理論的研究と実証的検証の両面から、根本原因をコントラスト最適化によって誘導されるスペクトル平滑化効果として同定し、表現空間にアイテム埋め込みを分散させ、意図せず対象項目の露出を増強する。
この知見に基づいて,両レベルの最適化攻撃手法であるCLeaRを導入し,スペクトルの滑らかさを意図的に増幅し,GCLベースの推奨モデルがターゲットのプロモーション攻撃に対する感受性を体系的に調査する。
そこで本研究では, モデル性能を損なうことなく, 対象物を正確に検出・抑制することを目的とした, スペクトル不規則性軽減フレームワークであるSIMを提案する。
複数のベンチマークデータセットに対する大規模な実験では、既存のターゲットプロモーションアタックと比較して、GCLベースのレコメンデーションモデルでは、CLeaRで評価した場合の感受性が向上し、SIMはこれらの脆弱性を効果的に軽減することが示された。
関連論文リスト
- DARTS: A Dual-View Attack Framework for Targeted Manipulation in Federated Sequential Recommendation [0.0]
フェデレートされたレコメンデーション(FedRec)は、パーソナライズされたモデルの分散トレーニングを可能にすることによって、ユーザのプライバシを保護します。
本稿では,DV-FSRと呼ばれる新しいデュアルビューアタックフレームワークを提案する。このフレームワークは,サンプリングに基づく明示的戦略と対照的な学習に基づく暗黙的勾配戦略を組み合わせて,協調攻撃を編成する。
論文 参考訳(メタデータ) (2025-07-02T05:57:09Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Supervised Optimism Correction: Be Confident When LLMs Are Sure [91.7459076316849]
教師付き微調整とオフライン強化学習の間には,新たな理論的関係が確立されている。
広く使われているビームサーチ法は、許容できない過度な最適化に悩まされていることを示す。
本稿では,トークンレベル$Q$-value推定のための簡易かつ効果的な補助的損失を導入したSupervised Optimism Correctionを提案する。
論文 参考訳(メタデータ) (2025-04-10T07:50:03Z) - DV-FSR: A Dual-View Target Attack Framework for Federated Sequential Recommendation [4.980393474423609]
フェデレートされたレコメンデーション(FedRec)は、パーソナライズされたモデルの分散トレーニングを可能にすることによって、ユーザのプライバシを保護します。
本稿では,DV-FSRと呼ばれる新しいデュアルビューアタックフレームワークを提案する。このフレームワークは,サンプリングに基づく明示的戦略と対照的な学習に基づく暗黙的勾配戦略を組み合わせて,協調攻撃を編成する。
論文 参考訳(メタデータ) (2024-09-10T15:24:13Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - Towards Adversarially Robust Recommendation from Adaptive Fraudster
Detection [9.756305372960423]
GNNベースのレコメンデータシステムであるGraphRfiが提案され、注入された偽ユーザの影響を効果的に緩和することを示した。
我々は、GraphRfiが不正検出コンポーネントの教師付き性質のため、攻撃に対して脆弱なままであることを示す。
特に,GNNベースとMFベースの両方のレコメンデーターシステムに対して,強力な毒殺攻撃であるMetaCを提案する。
論文 参考訳(メタデータ) (2022-11-08T15:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。