論文の概要: Securing Recommender System via Cooperative Training
- arxiv url: http://arxiv.org/abs/2401.12700v1
- Date: Tue, 23 Jan 2024 12:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 15:57:08.553792
- Title: Securing Recommender System via Cooperative Training
- Title(参考訳): 協調訓練によるレコメンダシステムの確保
- Authors: Qingyang Wang, Chenwang Wu, Defu Lian, Enhong Chen
- Abstract要約: 本稿では,データを相互に強化する3つの協調モデルを用いたTCD(Triple Cooperative Defense)を提案する。
既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考えると、リコメンダシステムにおける毒殺攻撃を再考する。
我々はゲームベースのコトレーニングアタック(GCoAttack)を提案し,提案したCoAttackとTCDをゲーム理論のプロセスとする。
- 参考スコア(独自算出の注目度): 78.97620275467733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are often susceptible to well-crafted fake profiles,
leading to biased recommendations. Among existing defense methods,
data-processing-based methods inevitably exclude normal samples, while
model-based methods struggle to enjoy both generalization and robustness. To
this end, we suggest integrating data processing and the robust model to
propose a general framework, Triple Cooperative Defense (TCD), which employs
three cooperative models that mutually enhance data and thereby improve
recommendation robustness. Furthermore, Considering that existing attacks
struggle to balance bi-level optimization and efficiency, we revisit poisoning
attacks in recommender systems and introduce an efficient attack strategy,
Co-training Attack (Co-Attack), which cooperatively optimizes the attack
optimization and model training, considering the bi-level setting while
maintaining attack efficiency. Moreover, we reveal a potential reason for the
insufficient threat of existing attacks is their default assumption of
optimizing attacks in undefended scenarios. This overly optimistic setting
limits the potential of attacks. Consequently, we put forth a Game-based
Co-training Attack (GCoAttack), which frames the proposed CoAttack and TCD as a
game-theoretic process, thoroughly exploring CoAttack's attack potential in the
cooperative training of attack and defense. Extensive experiments on three real
datasets demonstrate TCD's superiority in enhancing model robustness.
Additionally, we verify that the two proposed attack strategies significantly
outperform existing attacks, with game-based GCoAttack posing a greater
poisoning threat than CoAttack.
- Abstract(参考訳): レコメンダシステムはよく造られた偽のプロファイルに影響を受けやすく、偏りのあるレコメンデーションに繋がる。
既存の防御手法のうち、データ処理ベースのメソッドは必然的に通常のサンプルを除外するが、モデルベースのメソッドは一般化と堅牢性の両方を楽しむのに苦労している。
この目的のために,データ処理とロバストモデルを統合して,データの相互強化とレコメンデーションロバスト性の向上を図った3つの協調モデルであるトリプル協調防衛(TCD)を提案する。
さらに、既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考慮し、攻撃効率を維持しつつ二段階設定を考慮しつつ、攻撃最適化とモデルトレーニングを協調的に最適化するコトレーニングアタック(Co-Attack)という効果的な攻撃戦略を導入する。
さらに,既存のアタックの脅威が不十分な理由として,未定義のシナリオでアタックを最適化するという既定の前提を明らかにする。
この過度に楽観的な設定は攻撃の可能性を制限する。
そこで本研究では,提案するコータックとtcdをゲーム理論的なプロセスとして組み込んだゲームベース共同訓練攻撃(gcoattack)を行い,攻撃と防御の協調訓練においてコータックの攻撃可能性を徹底的に探究した。
3つの実際のデータセットに対する大規模な実験は、モデルロバスト性の向上におけるTCDの優位性を示している。
さらに、ゲームベースのGCoAttackは、CoAttackよりも大きな毒の脅威を呈し、既存の攻撃を著しく上回る2つの攻撃戦略が提案されていることを検証した。
関連論文リスト
- Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Optimal Cost Constrained Adversarial Attacks For Multiple Agent Systems [6.69087470775851]
分散攻撃エージェントを用いた最適な敵エージェント対エージェント攻撃を行うという問題を定式化する。
そこで本稿では,静的制約付き攻撃-リソース割り当て最適化と動的プログラミングの段階間最適化を組み合わせた最適手法を提案する。
以上の結果から,攻撃エージェントが受ける報酬を大幅に削減できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-01T21:28:02Z) - MIXPGD: Hybrid Adversarial Training for Speech Recognition Systems [18.01556863687433]
ASRシステムのモデルの堅牢性を向上させるために,混合PGD逆行訓練法を提案する。
標準的な対人訓練では、教師なしまたは教師なしの手法を利用して、敵のサンプルを生成する。
我々は,モデルロバスト性向上に役立つ新しい対向サンプルを生成するために,教師付きアプローチと教師なしアプローチの両機能を融合する。
論文 参考訳(メタデータ) (2023-03-10T07:52:28Z) - Towards Robust Recommender Systems via Triple Cooperative Defense [63.64651805384898]
レコメンダシステムは、よく作られた偽のプロフィールに影響を受けやすいことが多く、バイアスのあるレコメンデーションにつながる。
本稿では,3つのモデルの協調学習によるモデルロバスト性向上に協力する汎用フレームワークであるトリプル協調防衛を提案する。
その結果,TCDの堅牢性向上はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2022-10-25T04:45:43Z) - Analysis and Extensions of Adversarial Training for Video Classification [0.0]
ビデオに対して最適な攻撃を生成するには、特にステップサイズにおいて、攻撃パラメータを慎重に調整する必要があることを示す。
本稿では,攻撃予算の変動による攻撃に対する3つの防御策を提案する。
UCF101データセットの実験は、提案手法が複数の攻撃タイプに対する対角的堅牢性を向上させることを示した。
論文 参考訳(メタデータ) (2022-06-16T06:49:01Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。