論文の概要: Test-time adversarial detection and robustness for localizing humans
using ultra wide band channel impulse responses
- arxiv url: http://arxiv.org/abs/2211.05854v1
- Date: Thu, 10 Nov 2022 20:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:28:24.584596
- Title: Test-time adversarial detection and robustness for localizing humans
using ultra wide band channel impulse responses
- Title(参考訳): 超広帯域インパルス応答を用いたヒトの試験時間逆方向検出とロバスト性
- Authors: Abhiram Kolli, Muhammad Jehanzeb Mirza, Horst Possegger, Horst Bischof
- Abstract要約: 本稿では,事前学習したニューラルネットワークの局所化中間応答を定量化することにより,入力逆数サンプルを検出するテスト時間逆数サンプル検出器を提案する。
ネットワークを堅牢化するために,非定型入力サンプルクリッピングによる非関連特徴の低減を行う。
- 参考スコア(独自算出の注目度): 5.96002531660335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Keyless entry systems in cars are adopting neural networks for localizing its
operators. Using test-time adversarial defences equip such systems with the
ability to defend against adversarial attacks without prior training on
adversarial samples. We propose a test-time adversarial example detector which
detects the input adversarial example through quantifying the localized
intermediate responses of a pre-trained neural network and confidence scores of
an auxiliary softmax layer. Furthermore, in order to make the network robust,
we extenuate the non-relevant features by non-iterative input sample clipping.
Using our approach, mean performance over 15 levels of adversarial
perturbations is increased by 55.33% for the fast gradient sign method (FGSM)
and 6.3% for both the basic iterative method (BIM) and the projected gradient
method (PGD).
- Abstract(参考訳): 車のキーレスエントリーシステムは、オペレーターのローカライズにニューラルネットワークを採用している。
テストタイムの敵防衛を使用すれば、敵のサンプルを事前に訓練することなく、敵の攻撃に対して防御することができる。
本稿では,事前学習ニューラルネットワークの局所化中間応答と補助ソフトマックス層の信頼性スコアを定量化することにより,入力逆数サンプルを検出するテスト時間逆数サンプル検出器を提案する。
さらに,ネットワークを堅牢化するために,非定型入力サンプルクリッピングによる非関連特徴の低減を行う。
本手法により, 高速勾配法(FGSM) と基本反復法(BIM) と投影勾配法(PGD) のいずれにおいても, 15 レベルの対向摂動平均性能は55.33%向上する。
関連論文リスト
- Robust Image Classification in the Presence of Out-of-Distribution and Adversarial Samples Using Attractors in Neural Networks [0.0]
完全に接続されたニューラルネットワークは、トレーニングサンプルをアトラクタとして使用するように訓練されており、堅牢性を高めている。
その結果,敵の例を分類してもネットワークは性能を維持していることがわかった。
激しい敵対攻撃が存在する場合、これらの対策は98.48%と98.88%にわずかに減少し、提案手法の堅牢性を示している。
論文 参考訳(メタデータ) (2024-06-15T09:38:41Z) - Robust Localization of Key Fob Using Channel Impulse Response of Ultra
Wide Band Sensors for Keyless Entry Systems [12.313730356985019]
キーレス入力のセキュリティ機能として、車内および周囲のキーフォブのローカライズにニューラルネットワークを使用することは、急速に進んでいる。
モデルの性能は, 高速勾配法では, 一定の範囲で67%向上し, 基本反復法では37%, 投射勾配法では37%向上した。
論文 参考訳(メタデータ) (2024-01-16T22:35:14Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Class-Conditional Defense GAN Against End-to-End Speech Attacks [82.21746840893658]
本稿では,DeepSpeech や Lingvo といった先進的な音声テキストシステムを騙すために開発された,エンドツーエンドの敵対攻撃に対する新しいアプローチを提案する。
従来の防御手法とは異なり、提案手法は入力信号のオートエンコードのような低レベル変換を直接利用しない。
我々の防衛GANは、単語誤り率と文レベルの認識精度において、従来の防衛アルゴリズムよりもかなり優れています。
論文 参考訳(メタデータ) (2020-10-22T00:02:02Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - Non-Intrusive Detection of Adversarial Deep Learning Attacks via
Observer Networks [5.4572790062292125]
近年の研究では、深層学習モデルは逆入力に弱いことが示されている。
本稿では,主分類網を複数のバイナリ検出器で拡張することにより,逆入力を検出する新しい手法を提案する。
我々は、MNISTデータセットで99.5%、CIFAR-10データセットで97.5%の精度で検出する。
論文 参考訳(メタデータ) (2020-02-22T21:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。