論文の概要: Manipulating Recommender Systems: A Survey of Poisoning Attacks and Countermeasures
- arxiv url: http://arxiv.org/abs/2404.14942v1
- Date: Tue, 23 Apr 2024 11:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:21:26.317466
- Title: Manipulating Recommender Systems: A Survey of Poisoning Attacks and Countermeasures
- Title(参考訳): Recommender システムの操作: 攻撃と対策に関する調査
- Authors: Thanh Toan Nguyen, Quoc Viet Hung Nguyen, Thanh Tam Nguyen, Thanh Trung Huynh, Thanh Thi Nguyen, Matthias Weidlich, Hongzhi Yin,
- Abstract要約: 一部のレコメンデーターシステムは、毒殺攻撃に弱い。
毒攻撃とは、敵が、システムの最終的な勧告を操作することを目的として、モデルを訓練するプロセスに、慎重に構築されたデータを注入する攻撃である。
文献に記載された30以上の攻撃を整理し,その範囲を定式化するための新しい分類法を提供する。
特定の攻撃に対する効果を評価し,40以上の予防対策について検討した。
- 参考スコア(独自算出の注目度): 46.89053065058286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommender systems have become an integral part of online services to help users locate specific information in a sea of data. However, existing studies show that some recommender systems are vulnerable to poisoning attacks, particularly those that involve learning schemes. A poisoning attack is where an adversary injects carefully crafted data into the process of training a model, with the goal of manipulating the system's final recommendations. Based on recent advancements in artificial intelligence, such attacks have gained importance recently. While numerous countermeasures to poisoning attacks have been developed, they have not yet been systematically linked to the properties of the attacks. Consequently, assessing the respective risks and potential success of mitigation strategies is difficult, if not impossible. This survey aims to fill this gap by primarily focusing on poisoning attacks and their countermeasures. This is in contrast to prior surveys that mainly focus on attacks and their detection methods. Through an exhaustive literature review, we provide a novel taxonomy for poisoning attacks, formalise its dimensions, and accordingly organise 30+ attacks described in the literature. Further, we review 40+ countermeasures to detect and/or prevent poisoning attacks, evaluating their effectiveness against specific types of attacks. This comprehensive survey should serve as a point of reference for protecting recommender systems against poisoning attacks. The article concludes with a discussion on open issues in the field and impactful directions for future research. A rich repository of resources associated with poisoning attacks is available at https://github.com/tamlhp/awesome-recsys-poisoning.
- Abstract(参考訳): レコメンダシステムは、ユーザがデータの海の中で特定の情報を見つけるのを助けるために、オンラインサービスの不可欠な部分になっている。
しかし、既存の研究では、いくつかのレコメンデーターシステムは、特に学習スキームにかかわる有害な攻撃に弱いことが示されている。
毒攻撃とは、敵が、システムの最終的な勧告を操作することを目的として、モデルを訓練するプロセスに、慎重に構築されたデータを注入する攻撃である。
人工知能の最近の進歩に基づき、このような攻撃は近年重要になっている。
毒殺攻撃に対する多くの対策が開発されているが、これらは攻撃の性質と体系的に関連付けられていない。
したがって、軽減戦略のリスクや潜在的成功を評価することは、不可能ではないとしても困難である。
本調査は、主に毒殺攻撃とその対策に焦点を当てて、このギャップを埋めることを目的としている。
これは、主に攻撃とその検出方法に焦点を当てた以前の調査とは対照的である。
総括的な文献レビューを通じて、我々は、毒殺攻撃のための新しい分類法を提供し、その寸法を定式化し、文献に記載された30以上の攻撃を組織化する。
さらに,40以上の予防対策について検討し,特定の攻撃に対する効果を評価した。
この総合的な調査は、毒殺攻撃からレコメンデーターシステムを保護するための基準として役立ちます。
この記事は、この分野におけるオープンな問題と将来の研究への影響力のある方向性に関する議論から締めくくっている。
中毒攻撃に関連するリソースの豊富なリポジトリはhttps://github.com/tamlhp/awesome-recsys-poisoningで公開されている。
関連論文リスト
- APBench: A Unified Benchmark for Availability Poisoning Attacks and
Defenses [21.633448874100004]
APBenchは、敵の毒殺攻撃の有効性を評価するためのベンチマークである。
APBenchは9つの最先端のアベイラビリティ・アベイラビリティ・アタック、8つの防御アルゴリズム、および4つの従来のデータ拡張技術で構成されている。
われわれの結果は、個人のプライバシーを守るために、既存の攻撃が不適切であることを明らかにしている。
論文 参考訳(メタデータ) (2023-08-07T02:30:47Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - De-Pois: An Attack-Agnostic Defense against Data Poisoning Attacks [17.646155241759743]
De-Poisは、中毒攻撃に対する攻撃に依存しない防御です。
我々は,4種類の毒殺攻撃を実施,5種類の典型的な防御方法を用いてデポアを評価する。
論文 参考訳(メタデータ) (2021-05-08T04:47:37Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Data Poisoning Attacks on Regression Learning and Corresponding Defenses [0.0]
逆データ中毒は機械学習に対する効果的な攻撃であり、トレーニングデータセットに有毒データを導入することでモデルの完全性を脅かす。
データ中毒攻撃が生産システムに脅威を与え、新たなブラックボックス攻撃をもたらす現実的なシナリオを提示する。
その結果, 残留剤の平均二乗誤差(MSE)は, わずか2%の毒素を挿入することにより150パーセントに増加することがわかった。
論文 参考訳(メタデータ) (2020-09-15T12:14:54Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z) - Weight Poisoning Attacks on Pre-trained Models [103.19413805873585]
本研究は, バックドアを微調整した後に, バックドアを露出する脆弱性を伴って, 事前訓練した重量を注入した場合に, 重量中毒を発生させることが可能であることを示す。
感情分類,毒性検出,スパム検出に関する実験により,この攻撃は広く適用可能であり,深刻な脅威となることが示された。
論文 参考訳(メタデータ) (2020-04-14T16:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。