論文の概要: A Survey on Poisoning Attacks Against Supervised Machine Learning
- arxiv url: http://arxiv.org/abs/2202.02510v1
- Date: Sat, 5 Feb 2022 08:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 11:37:04.828561
- Title: A Survey on Poisoning Attacks Against Supervised Machine Learning
- Title(参考訳): 教師付き機械学習に対する中毒攻撃に関する調査研究
- Authors: Wenjun Qiu
- Abstract要約: 本稿では,教師付き機械学習モデルに対する中毒攻撃について,最も代表的な論文について紹介する。
既存の文献の方法論と限界を要約し比較する。
本論文は, 教師付きモデルに対する毒性攻撃のさらなる活用と防止を目的として, 潜在的な改善と今後の方向性について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise of artificial intelligence and machine learning in modern
computing, one of the major concerns regarding such techniques is to provide
privacy and security against adversaries. We present this survey paper to cover
the most representative papers in poisoning attacks against supervised machine
learning models. We first provide a taxonomy to categorize existing studies and
then present detailed summaries for selected papers. We summarize and compare
the methodology and limitations of existing literature. We conclude this paper
with potential improvements and future directions to further exploit and
prevent poisoning attacks on supervised models. We propose several unanswered
research questions to encourage and inspire researchers for future work.
- Abstract(参考訳): 現代のコンピューティングにおける人工知能と機械学習の台頭により、そのような技術に関する大きな懸念の1つは、敵に対するプライバシーとセキュリティを提供することである。
本稿では,教師付き機械学習モデルに対する中毒攻撃に関する最も代表的な論文を紹介する。
まず,既存の研究を分類し,選択した論文の詳細な要約を示す。
既存の文献の方法論と限界を要約し比較する。
本論文は,監視されたモデルに対する毒殺攻撃のさらなる利用と防止のために,改善の可能性と今後の方向性について述べる。
今後の研究を奨励し、刺激するために、未回答の研究課題をいくつか提案する。
関連論文リスト
- Adaptive Anomaly Detection for Identifying Attacks in Cyber-Physical Systems: A Systematic Literature Review [4.580544659826873]
本稿では,適応異常検出(Adaptive Anomaly Detection, AAD)研究の体系的文献レビュー(SLR)について述べる。
AADは、進化するサイバー攻撃を検出する最も有望な技術の一つである。
本稿では,攻撃タイプ,CPSアプリケーション,学習パラダイム,データ管理,アルゴリズムを考慮した新しい分類法を提案する。
我々は、研究者が最先端の技術を身につけるのを手助けし、実践者がこの分野の最近の進歩に親しむのを助けることを目的としている。
論文 参考訳(メタデータ) (2024-11-21T16:32:02Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - A Survey of Defenses against AI-generated Visual Media: Detection, Disruption, and Authentication [15.879482578829489]
深層生成モデルは様々なコンピュータビジョンアプリケーションで顕著な性能を示した。
これらのモデルは、誤情報、偽造、著作権侵害などの悪意ある目的のために使用されることがある。
本稿では,AI生成したビジュアルメディアに対する防衛研究の体系的かつタイムリーなレビューを行う。
論文 参考訳(メタデータ) (2024-07-15T09:46:02Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Adversarial attacks and defenses in explainable artificial intelligence:
A survey [11.541601343587917]
敵機械学習(AdvML)の最近の進歩は、最先端の説明手法の限界と脆弱性を強調している。
本調査は、機械学習モデルの説明に対する敵攻撃に関する総合的な研究の概要を提供する。
論文 参考訳(メタデータ) (2023-06-06T09:53:39Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Wild Patterns Reloaded: A Survey of Machine Learning Security against
Training Data Poisoning [32.976199681542845]
我々は、機械学習における中毒攻撃と防御の包括的体系化を提供する。
私たちはまず、現在の脅威モデルと攻撃を分類し、それに従って既存の防衛を組織化します。
我々は、我々の体系化は、他のデータモダリティに対する最先端の攻撃や防御も含んでいると論じている。
論文 参考訳(メタデータ) (2022-05-04T11:00:26Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。