論文の概要: Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems
- arxiv url: http://arxiv.org/abs/2101.10562v1
- Date: Tue, 26 Jan 2021 05:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 20:00:22.609506
- Title: Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems
- Title(参考訳): レーダーによる人間行動認識システムにおける敵攻撃の重要性とその解釈可能性との関連性の検討
- Authors: Utku Ozbulak, Baptist Vandersmissen, Azarakhsh Jalalvand, Ivo
Couckuyt, Arnout Van Messem, Wesley De Neve
- Abstract要約: レーダベースのCNNは、ホワイトボックス攻撃とブラックボックス攻撃の両方に影響を受けやすいことを示す。
我々はまた、レーダーベースのCNNによって行われた予測を変更することが可能である極端な敵対攻撃ケースの存在を明らかにします。
- 参考スコア(独自算出の注目度): 2.081492937901262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given their substantial success in addressing a wide range of computer vision
challenges, Convolutional Neural Networks (CNNs) are increasingly being used in
smart home applications, with many of these applications relying on the
automatic recognition of human activities. In this context, low-power radar
devices have recently gained in popularity as recording sensors, given that the
usage of these devices allows mitigating a number of privacy concerns, a key
issue when making use of conventional video cameras. Another concern that is
often cited when designing smart home applications is the resilience of these
applications against cyberattacks. It is, for instance, well-known that the
combination of images and CNNs is vulnerable against adversarial examples,
mischievous data points that force machine learning models to generate wrong
classifications during testing time. In this paper, we investigate the
vulnerability of radar-based CNNs to adversarial attacks, and where these
radar-based CNNs have been designed to recognize human gestures. Through
experiments with four unique threat models, we show that radar-based CNNs are
susceptible to both white- and black-box adversarial attacks. We also expose
the existence of an extreme adversarial attack case, where it is possible to
change the prediction made by the radar-based CNNs by only perturbing the
padding of the inputs, without touching the frames where the action itself
occurs. Moreover, we observe that gradient-based attacks exercise perturbation
not randomly, but on important features of the input data. We highlight these
important features by making use of Grad-CAM, a popular neural network
interpretability method, hereby showing the connection between adversarial
perturbation and prediction interpretability.
- Abstract(参考訳): 幅広いコンピュータビジョンの課題に対処することに成功したことにより、Convolutional Neural Networks(CNN)はスマートホームアプリケーションでますます使用され、これらのアプリケーションの多くは人間の活動の自動認識に依存しています。
このような状況下では、従来のビデオカメラを使用する際の重要な問題であるプライバシー上の懸念を軽減できるため、低消費電力レーダー装置が記録センサーとして最近人気を集めている。
スマートホームアプリケーションを設計する際にしばしば引用されるもう一つの懸念は、サイバー攻撃に対するこれらのアプリケーションの回復力です。
例えば、画像とCNNの組み合わせが、テスト時間中に機械学習モデルに誤った分類を強制する、敵対的なデータポイントに対して脆弱であることはよく知られている。
本稿では,レーダベースCNNの敵攻撃に対する脆弱性と,これらのレーダベースCNNが人間のジェスチャーを認識するように設計されているかを検討する。
4つのユニークな脅威モデルによる実験により、レーダーベースのCNNが白と黒の両方の逆転攻撃の影響を受けやすいことを示しています。
また,レーダーによるCNNによる予測を,動作自体が生じるフレームに触れることなく,入力のパディングのみを摂動させることで変更することが可能な,極端な対向攻撃ケースの存在を明らかにした。
さらに、勾配に基づく攻撃はランダムではなく、入力データの重要な特徴に基づいて摂動を行う。
本稿では,一般的なニューラルネットワーク解釈手法であるgrad-camを用いて,逆摂動と予測可読性の関係を示す。
関連論文リスト
- When Side-Channel Attacks Break the Black-Box Property of Embedded
Artificial Intelligence [0.8192907805418583]
ディープニューラルネットワーク(DNN)は、人間の観察者にとって検出不能な状態でネットワークを騙すために設計された悪意のある例である。
本稿では,ロジットを抽出することで,この制約を解決するアーキテクチャ非依存攻撃を提案する。
本手法は, 電磁漏れを利用したサイドチャネル攻撃を行うことにより, ハードウェアとソフトウェアを併用する。
論文 参考訳(メタデータ) (2023-11-23T13:41:22Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Real-time Over-the-air Adversarial Perturbations for Digital
Communications using Deep Neural Networks [0.0]
逆方向の摂動は、RF通信システムによって、反応性ジャマーやインターセプションシステムを避けるために使用できる。
この研究は、クラス固有およびサンプル非依存の対向摂動を定義することによって、このギャップを埋めようとしている。
本研究は,ソフトウェア定義無線を用いて,物理的チャネルを横断する空対空攻撃の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-20T14:50:52Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Vulnerability of Semantic Segmentation Networks to Adversarial
Attacks in Autonomous Driving: Enhancing Extensive Environment Sensing [25.354929620151367]
本稿では, セマンティックセグメンテーションに使用されるCNNの脆弱性を, 敵対的攻撃に照らし出すことを目的とする。
自動運転における環境認識にcnnを適用することの利点とデメリットを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2021-01-11T14:43:11Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。