論文の概要: Adversarial Detection by Approximation of Ensemble Boundary
- arxiv url: http://arxiv.org/abs/2211.10227v5
- Date: Fri, 10 Jan 2025 16:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:57.813698
- Title: Adversarial Detection by Approximation of Ensemble Boundary
- Title(参考訳): アンサンブル境界近似による逆検出
- Authors: T. Windeatt,
- Abstract要約: 敵の攻撃は自ら攻撃の対象となる防衛に繋がる。
本稿では,2種類のパターン認識問題を解くディープニューラルネットワーク(DNN)のアンサンブルに対して,新たな攻撃検出手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite being effective in many application areas, Deep Neural Networks (DNNs) are vulnerable to being attacked. In object recognition, the attack takes the form of a small perturbation added to an image, that causes the DNN to misclassify, but to a human appears no different. Adversarial attacks lead to defences that are themselves subject to attack, and the attack/ defence strategies provide important information about the properties of DNNs. In this paper, a novel method of detecting adversarial attacks is proposed for an ensemble of Deep Neural Networks (DNNs) solving two-class pattern recognition problems. The ensemble is combined using Walsh coefficients which are capable of approximating Boolean functions and thereby controlling the decision boundary complexity. The hypothesis in this paper is that decision boundaries with high curvature allow adversarial perturbations to be found, but change the curvature of the decision boundary, which is then approximated in a different way by Walsh coefficients compared to the clean images. Besides controlling boundary complexity, the coefficients also measure the correlation with class labels, which may aid in understanding the learning and transferability properties of DNNs. While the experiments here use images, the proposed approach of modelling two-class ensemble decision boundaries could in principle be applied to any application area.
- Abstract(参考訳): 多くのアプリケーション領域で有効であるにもかかわらず、ディープニューラルネットワーク(DNN)は攻撃に対して脆弱である。
物体認識では、この攻撃は画像に追加される小さな摂動の形を取るため、DNNは誤分類するが、人間には変わらないように見える。
敵の攻撃は自ら攻撃の対象となる防衛につながり、攻撃・防衛戦略はDNNの特性に関する重要な情報を提供する。
本稿では,2種類のパターン認識問題を解くディープニューラルネットワーク(DNN)のアンサンブルに対して,新たな攻撃検出手法を提案する。
アンサンブルは、ブール関数を近似し、決定境界の複雑さを制御することができるウォルシュ係数を用いて結合される。
本稿では, 高い曲率を持つ決定境界は, 逆方向の摂動を検出できるが, 決定境界の曲率を変化させることにより, クリーン画像と比較してウォルシュ係数によって近似される。
境界複雑性の制御に加えて、係数はクラスラベルとの相関も測定し、DNNの学習性と伝達性の性質を理解するのに役立つ。
実験では画像を用いたが、2種類のアンサンブル決定境界をモデル化する手法は原則として任意のアプリケーション領域に適用できる。
関連論文リスト
- Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Explainability-Based Adversarial Attack on Graphs Through Edge
Perturbation [1.6385815610837167]
本研究は,エッジ挿入と削除の両方を含むエッジ摂動によるテスト時間逆行攻撃の影響について検討する。
グラフ内の重要なノードを同定し,これらのノード間のエッジ摂動を行うための,説明可能性に基づく新しい手法を提案する。
結果は、異なるクラスのノード間のエッジの導入は、同じクラスのノード間のエッジを削除するよりも影響が大きいことを示唆している。
論文 参考訳(メタデータ) (2023-12-28T17:41:30Z) - Imperceptible Adversarial Attack on Deep Neural Networks from Image
Boundary [1.6589012298747952]
逆例(AE)はディープニューラルネットワーク(DNN)を簡単に騙すことができる
本研究は,入力画像境界をシステム的に攻撃し,AEを検出できない敵攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-29T14:41:05Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z) - Robustness of Bayesian Neural Networks to Gradient-Based Attacks [9.966113038850946]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
以上の結果から,BNN後頭葉は勾配に基づく対向攻撃に対して頑健であることが示唆された。
論文 参考訳(メタデータ) (2020-02-11T13:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。