論文の概要: Simultaneous Adversarial Attacks On Multiple Face Recognition System
Components
- arxiv url: http://arxiv.org/abs/2304.05048v1
- Date: Tue, 11 Apr 2023 08:15:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 15:49:13.782136
- Title: Simultaneous Adversarial Attacks On Multiple Face Recognition System
Components
- Title(参考訳): 複数顔認識システムコンポーネントに対する同時対向攻撃
- Authors: Inderjeet Singh, Kazuya Kakizaki, Toshinori Araki
- Abstract要約: 顔認識システムのセキュリティに対する敵例の潜在的な脅威について検討する。
本研究では,FRSに対する3つの多目的攻撃を提案し,その効果を実証する。
- 参考スコア(独自算出の注目度): 6.656366181951116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate the potential threat of adversarial examples to
the security of face recognition systems. Although previous research has
explored the adversarial risk to individual components of FRSs, our study
presents an initial exploration of an adversary simultaneously fooling multiple
components: the face detector and feature extractor in an FRS pipeline. We
propose three multi-objective attacks on FRSs and demonstrate their
effectiveness through a preliminary experimental analysis on a target system.
Our attacks achieved up to 100% Attack Success Rates against both the face
detector and feature extractor and were able to manipulate the face detection
probability by up to 50% depending on the adversarial objective. This research
identifies and examines novel attack vectors against FRSs and suggests possible
ways to augment the robustness by leveraging the attack vector's knowledge
during training of an FRS's components.
- Abstract(参考訳): 本研究では,顔認識システムのセキュリティに対する敵例の潜在的な脅威について検討する。
従来の研究では、FRSの個々のコンポーネントに対する敵対的リスクを調査してきたが、FRSパイプラインの顔検出器と特徴抽出器の2つのコンポーネントを同時に騙す敵の探索を行った。
本研究では,FRSに対する3つの多目的攻撃を提案し,その有効性を示す。
我々の攻撃は顔検出装置と特徴抽出器の両方に対して最大100%の攻撃成功率を達成し,敵の目的に応じて最大50%まで顔検出確率を操作できた。
本研究は、FRSに対する新たな攻撃ベクトルを特定し、FRSコンポーネントのトレーニング中に攻撃ベクトルの知識を活用することにより、ロバスト性を高める方法を提案する。
関連論文リスト
- A Human-Centered Risk Evaluation of Biometric Systems Using Conjoint Analysis [0.6199770411242359]
本稿では, コンジョイント分析を用いて, 監視カメラなどのリスク要因が攻撃者のモチベーションに与える影響を定量化するために, 新たな人間中心型リスク評価フレームワークを提案する。
本フレームワークは、False Acceptance Rate(FAR)とアタック確率を組み込んだリスク値を算出し、ユースケース間の総合的な比較を可能にする。
論文 参考訳(メタデータ) (2024-09-17T14:18:21Z) - Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - Morphing Attack Potential [19.14832588587427]
セキュリティシステムでは、共通基準テストという意味でのリスク評価が、非常に関連するトピックである。
本稿では,特定のモーフィング攻撃が生み出すリスクを定量化する一貫した手法として,モーフィング攻撃可能性(MAP)を紹介する。
論文 参考訳(メタデータ) (2022-04-28T09:37:46Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - On the Generalisation Capabilities of Fisher Vector based Face
Presentation Attack Detection [13.93832810177247]
顔提示攻撃検出技術は、既知の提示攻撃機器で評価されたときに良好な検出性能を報告しています。
本研究では,フィッシャーベクトルに基づく特徴空間を,コンパクトな2値化統計画像から計算し,ヒストグラムを用いた。
フリーで利用可能な顔データベースから取られた未知の攻撃に挑戦するために評価されたこの新しい表現は、有望な結果を示している。
論文 参考訳(メタデータ) (2021-03-02T13:49:06Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack [3.3707422585608953]
ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
論文 参考訳(メタデータ) (2020-08-23T03:37:51Z) - Face Anti-Spoofing with Human Material Perception [76.4844593082362]
フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
我々は、顔の反偽造を物質認識問題として言い換え、それを古典的な人間の物質知覚と組み合わせる。
本稿では,本質的な素材に基づくパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T18:25:53Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。