論文の概要: Multimodal Attack Detection for Action Recognition Models
- arxiv url: http://arxiv.org/abs/2404.10790v1
- Date: Sat, 13 Apr 2024 01:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 18:22:00.987152
- Title: Multimodal Attack Detection for Action Recognition Models
- Title(参考訳): 行動認識モデルに対するマルチモーダル攻撃検出
- Authors: Furkan Mumcu, Yasin Yilmaz,
- Abstract要約: 本稿では,任意の行動認識モデルに適合する新しいユニバーサル検出手法を提案する。
4つのアクション認識モデルをターゲットにした4つの最先端攻撃に対してテストされ、提案された検出器は16のテストケース平均0.911のAUCを達成する。
- 参考スコア(独自算出の注目度): 24.585379549997743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial machine learning attacks on video action recognition models is a growing research area and many effective attacks were introduced in recent years. These attacks show that action recognition models can be breached in many ways. Hence using these models in practice raises significant security concerns. However, there are very few works which focus on defending against or detecting attacks. In this work, we propose a novel universal detection method which is compatible with any action recognition model. In our extensive experiments, we show that our method consistently detects various attacks against different target models with high true positive rates while satisfying very low false positive rates. Tested against four state-of-the-art attacks targeting four action recognition models, the proposed detector achieves an average AUC of 0.911 over 16 test cases while the best performance achieved by the existing detectors is 0.645 average AUC. This 41.2% improvement is enabled by the robustness of the proposed detector to varying attack methods and target models. The lowest AUC achieved by our detector across the 16 test cases is 0.837 while the competing detector's performance drops as low as 0.211. We also show that the proposed detector is robust to varying attack strengths. In addition, we analyze our method's real-time performance with different hardware setups to demonstrate its potential as a practical defense mechanism.
- Abstract(参考訳): 近年,映像行動認識モデルに対する敵対的機械学習攻撃が増加傾向にあり,多くの効果的な攻撃が導入されている。
これらの攻撃は、アクション認識モデルが様々な方法で破られることを示している。
したがって、これらのモデルを実際に使用すると、重大なセキュリティ上の懸念が生じる。
しかし、攻撃に対する防御や検出に焦点を当てた作品はほとんどない。
本研究では,任意の行動認識モデルに適合する新しいユニバーサル検出手法を提案する。
実験により,本手法は偽陽性率を非常に低く抑えながら,高い正の確率で異なるターゲットモデルに対する様々な攻撃を連続的に検出することを示した。
4つのアクション認識モデルをターゲットにした4つの最先端攻撃に対して試験を行い、提案検出器は16のテストケース平均0.911のAUCを達成し、既存の検出器で達成される最高の性能は0.645の平均AUCである。
この41.2%の改善は、様々な攻撃方法と標的モデルに対する提案された検出器の堅牢性によって実現されている。
16件の検体で達成された最も低いAUCは0.837であり、競合する検体の性能は0.211まで低下した。
また,提案検出器は様々な攻撃強度に対して頑健であることを示す。
さらに,本手法のリアルタイム性能を異なるハードウェア構成で解析し,実用的防御機構としての可能性を示す。
関連論文リスト
- Unraveling Adversarial Examples against Speaker Identification --
Techniques for Attack Detection and Victim Model Classification [24.501269108193412]
敵対的な例は話者識別システムを脅かすことが証明されている。
本稿では,敵対的事例の存在を検出する手法を提案する。
また、敵攻撃を行う被害者モデルを特定する方法についても紹介する。
論文 参考訳(メタデータ) (2024-02-29T17:06:52Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors [24.296350262025552]
いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
論文 参考訳(メタデータ) (2022-06-30T17:05:45Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Robust Android Malware Detection System against Adversarial Attacks
using Q-Learning [2.179313476241343]
現在最先端のAndroidマルウェア検出システムは、機械学習とディープラーニングモデルに基づいている。
機械学習とディープニューラルネットワークに基づく8つのAndroidマルウェア検出モデルを開発し、敵攻撃に対するロバスト性を検討した。
我々はReinforcement Learningを使って新しいマルウェアの変種を作成し、既存のAndroidマルウェア検出モデルによって誤分類される。
論文 参考訳(メタデータ) (2021-01-27T16:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。