論文の概要: Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks
- arxiv url: http://arxiv.org/abs/2008.11772v1
- Date: Wed, 26 Aug 2020 19:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:56:06.618182
- Title: Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks
- Title(参考訳): 非知覚的偽装攻撃の計測駆動型セキュリティ解析
- Authors: Shasha Li, Karim Khalil, Rameswar Panda, Chengyu Song, Srikanth V.
Krishnamurthy, Amit K. Roy-Chowdhury, Ananthram Swami
- Abstract要約: 本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
- 参考スコア(独自算出の注目度): 54.727945432381716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Internet of Things (IoT) brings about new security
challenges at the intersection of cyber and physical spaces. One prime example
is the vulnerability of Face Recognition (FR) based access control in IoT
systems. While previous research has shown that Deep Neural Network(DNN)-based
FR systems (FRS) are potentially susceptible to imperceptible impersonation
attacks, the potency of such attacks in a wide set of scenarios has not been
thoroughly investigated. In this paper, we present the first systematic,
wide-ranging measurement study of the exploitability of DNN-based FR systems
using a large scale dataset. We find that arbitrary impersonation attacks,
wherein an arbitrary attacker impersonates an arbitrary target, are hard if
imperceptibility is an auxiliary goal. Specifically, we show that factors such
as skin color, gender, and age, impact the ability to carry out an attack on a
specific target victim, to different extents. We also study the feasibility of
constructing universal attacks that are robust to different poses or views of
the attacker's face. Our results show that finding a universal perturbation is
a much harder problem from the attacker's perspective. Finally, we find that
the perturbed images do not generalize well across different DNN models. This
suggests security countermeasures that can dramatically reduce the
exploitability of DNN-based FR systems.
- Abstract(参考訳): IoT(Internet of Things)の出現は、サイバー空間と物理空間の交差点において、新たなセキュリティ上の課題をもたらす。
主な例として、IoTシステムにおける顔認識(FR)ベースのアクセス制御の脆弱性がある。
これまでの研究では、深層ニューラルネットワーク(dnn)ベースのfrシステム(frs)は、不可避な偽装攻撃の影響を受けやすいことが示されているが、幅広いシナリオにおけるそのような攻撃の能力は十分に調査されていない。
本稿では,大規模データセットを用いたdnnベースのfrシステムの活用可能性について,初めて体系的かつ広域に計測する。
任意の攻撃者が任意の標的を偽装する任意の偽装攻撃は、知覚不能が補助目標である場合、困難である。
具体的には、肌の色、性別、年齢といった要因が、特定のターゲットの被害者に対して、異なる範囲で攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔の異なるポーズや視点にロバストなユニバーサルアタックを構築する可能性についても検討した。
その結果,攻撃者の視点からは,普遍的摂動の発見ははるかに難しい問題であることがわかった。
最後に、摂動画像は異なるDNNモデル間ではうまく一般化しないことがわかった。
このことは、DNNベースのFRシステムのエクスプロイラビリティを劇的に低下させるセキュリティ対策を示唆している。
関連論文リスト
- Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Detecting Unknown Attacks in IoT Environments: An Open Set Classifier
for Enhanced Network Intrusion Detection [5.787704156827843]
本稿では,IoT環境に適したネットワーク侵入検知システム(NIDS)の領域におけるオープンセット認識(OSR)問題の緩和を目的としたフレームワークを提案する。
ネットワークトラフィックから空間的・時間的パターンを抽出し,パケットレベルデータのイメージベース表現に重きを置いている。
実験の結果は、このフレームワークの有効性を顕著に強調し、これまで見つからなかった攻撃に対して、驚くべき88%の検知率を誇示している。
論文 参考訳(メタデータ) (2023-09-14T06:41:45Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。