論文の概要: Evaluating the Vulnerabilities in ML systems in terms of adversarial
attacks
- arxiv url: http://arxiv.org/abs/2308.12918v1
- Date: Thu, 24 Aug 2023 16:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:03:30.439178
- Title: Evaluating the Vulnerabilities in ML systems in terms of adversarial
attacks
- Title(参考訳): 敵対的攻撃の観点からみたmlシステムの脆弱性評価
- Authors: John Harshith, Mantej Singh Gill, Madhan Jothimani
- Abstract要約: 新たな敵攻撃手法は、現在のディープラーニングサイバー防衛システムに課題をもたらす可能性がある。
著者はAIシステムにおける脆弱性の結果を探求する。
テストフェーズにあるAIシステムを適切にトレーニングし、より広範な使用に備えることが重要です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There have been recent adversarial attacks that are difficult to find. These
new adversarial attacks methods may pose challenges to current deep learning
cyber defense systems and could influence the future defense of cyberattacks.
The authors focus on this domain in this research paper. They explore the
consequences of vulnerabilities in AI systems. This includes discussing how
they might arise, differences between randomized and adversarial examples and
also potential ethical implications of vulnerabilities. Moreover, it is
important to train the AI systems appropriately when they are in testing phase
and getting them ready for broader use.
- Abstract(参考訳): 最近の敵の攻撃は、見つけるのが難しい。
これらの新たな敵攻撃手法は、現在のディープラーニングサイバー防衛システムに課題をもたらし、将来のサイバー攻撃の防衛に影響を与える可能性がある。
著者らは本研究論文でこの領域に注目した。
彼らはAIシステムの脆弱性の結果を探る。
これには、それらの発生方法、ランダム化された例と敵の例の違い、および潜在的な脆弱性の倫理的影響について議論することが含まれる。
さらに、テストフェーズにあるaiシステムを適切にトレーニングし、より広範な利用に向けて準備しておくことも重要です。
関連論文リスト
- Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers [74.8408990716076]
既存の強化学習エージェントに対する観測空間攻撃は共通の弱点を有することを示す。
提案手法は, 有効かつ統計的に検出不可能な, 逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
従来の攻撃と比較すると、R攻撃は自動で検出するのがかなり難しいことが実証されている。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Artificial Intelligence-Based Smart Grid Vulnerabilities and Potential
Solutions for Fake-Normal Attacks: A Short Review [0.0]
スマートグリッドシステムは電力業界にとって重要なものだが、その高度なアーキテクチャ設計と運用によって、多くのサイバーセキュリティの脅威にさらされている。
人工知能(AI)ベースの技術は、さまざまなコンピュータ設定でサイバー攻撃を検出することで、ますます人気が高まっている。
現在のAIシステムは、GAN(Generative Adversarial Networks)のような高度な敵系が最近出現したため、公開され、消滅している。
論文 参考訳(メタデータ) (2022-02-14T21:41:36Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。