論文の概要: Adversarial Detection by Approximation of Ensemble Boundary
- arxiv url: http://arxiv.org/abs/2211.10227v4
- Date: Wed, 24 Jan 2024 11:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 18:17:20.541991
- Title: Adversarial Detection by Approximation of Ensemble Boundary
- Title(参考訳): アンサンブル境界近似による逆検出
- Authors: T. Windeatt
- Abstract要約: 2種類のパターン認識問題を解くために,DNN(Deep Neural Networks)のアンサンブルに対して,新たな攻撃検出手法を提案する。
アンサンブルはブール関数を近似できるウォルシュ係数を用いて結合される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A new method of detecting adversarial attacks is proposed for an ensemble of
Deep Neural Networks (DNNs) solving two-class pattern recognition problems. The
ensemble is combined using Walsh coefficients which are capable of
approximating Boolean functions and thereby controlling the complexity of the
ensemble decision boundary. The hypothesis in this paper is that decision
boundaries with high curvature allow adversarial perturbations to be found, but
change the curvature of the decision boundary, which is then approximated in a
different way by Walsh coefficients compared to the clean images. By observing
the difference in Walsh coefficient approximation between clean and adversarial
images, it is shown experimentally that transferability of attack may be used
for detection. Furthermore, approximating the decision boundary may aid in
understanding the learning and transferability properties of DNNs. While the
experiments here use images, the proposed approach of modelling two-class
ensemble decision boundaries could in principle be applied to any application
area. Code for approximating Boolean functions using Walsh coefficients:
https://doi.org/10.24433/CO.3695905.v1
- Abstract(参考訳): 2種類のパターン認識問題を解くために,DNN(Deep Neural Networks)のアンサンブルに対して,新たな攻撃検出手法を提案する。
アンサンブルは、ブール関数を近似し、アンサンブル決定境界の複雑さを制御することができるウォルシュ係数を用いて結合される。
本論文の仮説は,高い曲率を持つ決定境界は逆摂動を見出すことができるが,決定境界の曲率を変化させることにより,清浄な画像と比較してウォルシュ係数によって近似されるというものである。
クリーン画像と逆画像のウォルシュ係数近似の差を観測することにより,攻撃の伝達性が検出に有効であることを実験的に示す。
さらに、決定境界の近似は、DNNの学習性や伝達性を理解するのに役立つ。
実験では画像を用いたが、2種類のアンサンブル決定境界をモデル化する手法は原則として任意のアプリケーション領域に適用できる。
Walsh係数を用いたブール関数近似コード:https://doi.org/10.24433/CO.3695905.v1
関連論文リスト
- Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Explainability-Based Adversarial Attack on Graphs Through Edge
Perturbation [1.6385815610837167]
本研究は,エッジ挿入と削除の両方を含むエッジ摂動によるテスト時間逆行攻撃の影響について検討する。
グラフ内の重要なノードを同定し,これらのノード間のエッジ摂動を行うための,説明可能性に基づく新しい手法を提案する。
結果は、異なるクラスのノード間のエッジの導入は、同じクラスのノード間のエッジを削除するよりも影響が大きいことを示唆している。
論文 参考訳(メタデータ) (2023-12-28T17:41:30Z) - Imperceptible Adversarial Attack on Deep Neural Networks from Image
Boundary [1.6589012298747952]
逆例(AE)はディープニューラルネットワーク(DNN)を簡単に騙すことができる
本研究は,入力画像境界をシステム的に攻撃し,AEを検出できない敵攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-29T14:41:05Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z) - Robustness of Bayesian Neural Networks to Gradient-Based Attacks [9.966113038850946]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
以上の結果から,BNN後頭葉は勾配に基づく対向攻撃に対して頑健であることが示唆された。
論文 参考訳(メタデータ) (2020-02-11T13:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。