論文の概要: Manipulating Recommender Systems: A Survey of Poisoning Attacks and Countermeasures
- arxiv url: http://arxiv.org/abs/2404.14942v1
- Date: Tue, 23 Apr 2024 11:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:21:26.317466
- Title: Manipulating Recommender Systems: A Survey of Poisoning Attacks and Countermeasures
- Title(参考訳): Recommender システムの操作: 攻撃と対策に関する調査
- Authors: Thanh Toan Nguyen, Quoc Viet Hung Nguyen, Thanh Tam Nguyen, Thanh Trung Huynh, Thanh Thi Nguyen, Matthias Weidlich, Hongzhi Yin,
- Abstract要約: 一部のレコメンデーターシステムは、毒殺攻撃に弱い。
毒攻撃とは、敵が、システムの最終的な勧告を操作することを目的として、モデルを訓練するプロセスに、慎重に構築されたデータを注入する攻撃である。
文献に記載された30以上の攻撃を整理し,その範囲を定式化するための新しい分類法を提供する。
特定の攻撃に対する効果を評価し,40以上の予防対策について検討した。
- 参考スコア(独自算出の注目度): 46.89053065058286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommender systems have become an integral part of online services to help users locate specific information in a sea of data. However, existing studies show that some recommender systems are vulnerable to poisoning attacks, particularly those that involve learning schemes. A poisoning attack is where an adversary injects carefully crafted data into the process of training a model, with the goal of manipulating the system's final recommendations. Based on recent advancements in artificial intelligence, such attacks have gained importance recently. While numerous countermeasures to poisoning attacks have been developed, they have not yet been systematically linked to the properties of the attacks. Consequently, assessing the respective risks and potential success of mitigation strategies is difficult, if not impossible. This survey aims to fill this gap by primarily focusing on poisoning attacks and their countermeasures. This is in contrast to prior surveys that mainly focus on attacks and their detection methods. Through an exhaustive literature review, we provide a novel taxonomy for poisoning attacks, formalise its dimensions, and accordingly organise 30+ attacks described in the literature. Further, we review 40+ countermeasures to detect and/or prevent poisoning attacks, evaluating their effectiveness against specific types of attacks. This comprehensive survey should serve as a point of reference for protecting recommender systems against poisoning attacks. The article concludes with a discussion on open issues in the field and impactful directions for future research. A rich repository of resources associated with poisoning attacks is available at https://github.com/tamlhp/awesome-recsys-poisoning.
- Abstract(参考訳): レコメンダシステムは、ユーザがデータの海の中で特定の情報を見つけるのを助けるために、オンラインサービスの不可欠な部分になっている。
しかし、既存の研究では、いくつかのレコメンデーターシステムは、特に学習スキームにかかわる有害な攻撃に弱いことが示されている。
毒攻撃とは、敵が、システムの最終的な勧告を操作することを目的として、モデルを訓練するプロセスに、慎重に構築されたデータを注入する攻撃である。
人工知能の最近の進歩に基づき、このような攻撃は近年重要になっている。
毒殺攻撃に対する多くの対策が開発されているが、これらは攻撃の性質と体系的に関連付けられていない。
したがって、軽減戦略のリスクや潜在的成功を評価することは、不可能ではないとしても困難である。
本調査は、主に毒殺攻撃とその対策に焦点を当てて、このギャップを埋めることを目的としている。
これは、主に攻撃とその検出方法に焦点を当てた以前の調査とは対照的である。
総括的な文献レビューを通じて、我々は、毒殺攻撃のための新しい分類法を提供し、その寸法を定式化し、文献に記載された30以上の攻撃を組織化する。
さらに,40以上の予防対策について検討し,特定の攻撃に対する効果を評価した。
この総合的な調査は、毒殺攻撃からレコメンデーターシステムを保護するための基準として役立ちます。
この記事は、この分野におけるオープンな問題と将来の研究への影響力のある方向性に関する議論から締めくくっている。
中毒攻撃に関連するリソースの豊富なリポジトリはhttps://github.com/tamlhp/awesome-recsys-poisoningで公開されている。
関連論文リスト
- Poisoning Attacks and Defenses in Recommender Systems: A Survey [39.25402612579371]
現代のレコメンデーターシステム(RS)は、デジタルプラットフォーム全体のユーザエクスペリエンスを著しく向上させたが、毒殺攻撃による重大な脅威に直面している。
この調査は、攻撃者のレンズを通してこれらの脅威を調べることによって、ユニークな視点を示す。
攻撃目標の設定、攻撃能力の評価、犠牲者のアーキテクチャの分析、毒殺戦略の実行の4段階を含む系統的なパイプラインについて詳述する。
論文 参考訳(メタデータ) (2024-06-03T06:08:02Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - APBench: A Unified Benchmark for Availability Poisoning Attacks and
Defenses [21.633448874100004]
APBenchは、敵の毒殺攻撃の有効性を評価するためのベンチマークである。
APBenchは9つの最先端のアベイラビリティ・アベイラビリティ・アタック、8つの防御アルゴリズム、および4つの従来のデータ拡張技術で構成されている。
われわれの結果は、個人のプライバシーを守るために、既存の攻撃が不適切であることを明らかにしている。
論文 参考訳(メタデータ) (2023-08-07T02:30:47Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Data Poisoning Attacks on Regression Learning and Corresponding Defenses [0.0]
逆データ中毒は機械学習に対する効果的な攻撃であり、トレーニングデータセットに有毒データを導入することでモデルの完全性を脅かす。
データ中毒攻撃が生産システムに脅威を与え、新たなブラックボックス攻撃をもたらす現実的なシナリオを提示する。
その結果, 残留剤の平均二乗誤差(MSE)は, わずか2%の毒素を挿入することにより150パーセントに増加することがわかった。
論文 参考訳(メタデータ) (2020-09-15T12:14:54Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。