論文の概要: Adversarial Detection by Approximation of Ensemble Boundary
- arxiv url: http://arxiv.org/abs/2211.10227v5
- Date: Fri, 10 Jan 2025 16:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:57.813698
- Title: Adversarial Detection by Approximation of Ensemble Boundary
- Title(参考訳): アンサンブル境界近似による逆検出
- Authors: T. Windeatt,
- Abstract要約: 敵の攻撃は自ら攻撃の対象となる防衛に繋がる。
本稿では,2種類のパターン認識問題を解くディープニューラルネットワーク(DNN)のアンサンブルに対して,新たな攻撃検出手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite being effective in many application areas, Deep Neural Networks (DNNs) are vulnerable to being attacked. In object recognition, the attack takes the form of a small perturbation added to an image, that causes the DNN to misclassify, but to a human appears no different. Adversarial attacks lead to defences that are themselves subject to attack, and the attack/ defence strategies provide important information about the properties of DNNs. In this paper, a novel method of detecting adversarial attacks is proposed for an ensemble of Deep Neural Networks (DNNs) solving two-class pattern recognition problems. The ensemble is combined using Walsh coefficients which are capable of approximating Boolean functions and thereby controlling the decision boundary complexity. The hypothesis in this paper is that decision boundaries with high curvature allow adversarial perturbations to be found, but change the curvature of the decision boundary, which is then approximated in a different way by Walsh coefficients compared to the clean images. Besides controlling boundary complexity, the coefficients also measure the correlation with class labels, which may aid in understanding the learning and transferability properties of DNNs. While the experiments here use images, the proposed approach of modelling two-class ensemble decision boundaries could in principle be applied to any application area.
- Abstract(参考訳): 多くのアプリケーション領域で有効であるにもかかわらず、ディープニューラルネットワーク(DNN)は攻撃に対して脆弱である。
物体認識では、この攻撃は画像に追加される小さな摂動の形を取るため、DNNは誤分類するが、人間には変わらないように見える。
敵の攻撃は自ら攻撃の対象となる防衛につながり、攻撃・防衛戦略はDNNの特性に関する重要な情報を提供する。
本稿では,2種類のパターン認識問題を解くディープニューラルネットワーク(DNN)のアンサンブルに対して,新たな攻撃検出手法を提案する。
アンサンブルは、ブール関数を近似し、決定境界の複雑さを制御することができるウォルシュ係数を用いて結合される。
本稿では, 高い曲率を持つ決定境界は, 逆方向の摂動を検出できるが, 決定境界の曲率を変化させることにより, クリーン画像と比較してウォルシュ係数によって近似される。
境界複雑性の制御に加えて、係数はクラスラベルとの相関も測定し、DNNの学習性と伝達性の性質を理解するのに役立つ。
実験では画像を用いたが、2種類のアンサンブル決定境界をモデル化する手法は原則として任意のアプリケーション領域に適用できる。
関連論文リスト
- A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Assouad, Fano, and Le Cam with Interaction: A Unifying Lower Bound Framework and Characterization for Bandit Learnability [71.82666334363174]
我々は,統計的推定と対話的意思決定において,下位境界法のための統一的なフレームワークを開発する。
対話型意思決定のための新しい下位境界の複雑さを促進する新しい尺度である決定次元を導入する。
論文 参考訳(メタデータ) (2024-10-07T15:14:58Z) - Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Improved Algorithms for Agnostic Pool-based Active Classification [20.12178157010804]
プールに依存しない環境でのバイナリ分類のためのアクティブラーニングを検討する。
我々のアルゴリズムは、画像分類データセットにおけるアートアクティブな学習アルゴリズムの状況よりも優れている。
論文 参考訳(メタデータ) (2021-05-13T18:24:30Z) - DiffPrune: Neural Network Pruning with Deterministic Approximate Binary
Gates and $L_0$ Regularization [0.0]
現代のニューラルネットワークアーキテクチャは通常、数百万のパラメータを持ち、有効性を著しく損なうことなく、大幅に刈り取ることができる。
この作品の貢献は2つある。
1つ目は、任意の実数値確率変数の決定論的かつ微分可能変換によって多変量ベルヌーイ確率変数を近似する方法である。
2つ目は、決定論的あるいは乗法的に計算され、正確なゼロ値を取る近似二進ゲートを持つ要素的パラメータによるモデル選択の方法である。
論文 参考訳(メタデータ) (2020-12-07T13:08:56Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - DeepStrip: High Resolution Boundary Refinement [60.00241966809684]
関心領域をストリップ画像に変換し、ストリップ領域の境界予測を計算することを提案する。
対象境界を検出するために,2つの予測層を持つフレームワークを提案する。
我々は、誤報を減らすために、整合性とC0連続性正規化をネットワークに強制する。
論文 参考訳(メタデータ) (2020-03-25T22:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。