論文の概要: URET: Universal Robustness Evaluation Toolkit (for Evasion)
- arxiv url: http://arxiv.org/abs/2308.01840v1
- Date: Thu, 3 Aug 2023 16:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 13:28:05.103804
- Title: URET: Universal Robustness Evaluation Toolkit (for Evasion)
- Title(参考訳): uret:ユニバーサルロバストネス評価ツールキット(回避のため)
- Authors: Kevin Eykholt, Taesung Lee, Douglas Schales, Jiyong Jang, Ian Molloy,
and Masha Zorin
- Abstract要約: 敵の回避攻撃は、ほとんどのAIシステムに対して展開することが難しい。
本稿では,入力タイプやタスク領域に関係なく,逆入力の生成を可能にする新しいフレームワークを提案する。
緩和手法の展開を可能にするために、敵の例を生成することの重要性を示す。
- 参考スコア(独自算出の注目度): 5.083689191206454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are known to be vulnerable to adversarial evasion
attacks as illustrated by image classification models. Thoroughly understanding
such attacks is critical in order to ensure the safety and robustness of
critical AI tasks. However, most evasion attacks are difficult to deploy
against a majority of AI systems because they have focused on image domain with
only few constraints. An image is composed of homogeneous, numerical,
continuous, and independent features, unlike many other input types to AI
systems used in practice. Furthermore, some input types include additional
semantic and functional constraints that must be observed to generate realistic
adversarial inputs. In this work, we propose a new framework to enable the
generation of adversarial inputs irrespective of the input type and task
domain. Given an input and a set of pre-defined input transformations, our
framework discovers a sequence of transformations that result in a semantically
correct and functional adversarial input. We demonstrate the generality of our
approach on several diverse machine learning tasks with various input
representations. We also show the importance of generating adversarial examples
as they enable the deployment of mitigation techniques.
- Abstract(参考訳): 機械学習モデルは、画像分類モデルで示されるように、敵の回避攻撃に弱いことが知られている。
このような攻撃を十分に理解することは、重要なAIタスクの安全性と堅牢性を保証するために重要である。
しかし、ほとんどの回避攻撃は、わずかな制約しか持たないイメージドメインに集中しているため、ほとんどのAIシステムに対して展開することが難しい。
画像は、実際に使用されるAIシステムへの他の多くの入力タイプとは異なり、均一、数値、連続、独立な特徴で構成されている。
さらに、いくつかの入力タイプは、現実的な逆入力を生成するために観察されなければならない追加的な意味的および機能的制約を含んでいる。
本研究では,入力タイプやタスク領域に関係なく,逆入力の生成を可能にする新しいフレームワークを提案する。
入力と事前定義された入力変換のセットが与えられた場合、我々のフレームワークは意味論的に正しく機能的な逆入力をもたらす一連の変換を発見する。
様々な入力表現を持つ多種多様な機械学習タスクに対するアプローチの汎用性を実証する。
また,緩和技術の展開を可能にするために,逆の例を生成することの重要性を示す。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Transformation-Dependent Adversarial Attacks [15.374381635334897]
変換依存的敵攻撃(transform-dependent adversarial attack)は、単一の加法摂動が多様で制御可能な誤予測を引き起こす新たな種類の脅威である。
静的な影響を持つ従来の攻撃とは異なり、我々の摂動は変換パラメータの関数として異なる敵攻撃を可能にする変成特性を埋め込む。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - "That Is a Suspicious Reaction!": Interpreting Logits Variation to
Detect NLP Adversarial Attacks [0.2999888908665659]
敵攻撃は、現在の機械学習研究で直面する大きな課題である。
本研究は, 逆文例のモデルに依存しない検出法を提案する。
論文 参考訳(メタデータ) (2022-04-10T09:24:41Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。