論文の概要: Morphing Attack Potential
- arxiv url: http://arxiv.org/abs/2204.13374v1
- Date: Thu, 28 Apr 2022 09:37:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:54:20.276736
- Title: Morphing Attack Potential
- Title(参考訳): モーフィング攻撃能力
- Authors: Matteo Ferrara, Annalisa Franco, Davide Maltoni, Christoph Busch
- Abstract要約: セキュリティシステムでは、共通基準テストという意味でのリスク評価が、非常に関連するトピックである。
本稿では,特定のモーフィング攻撃が生み出すリスクを定量化する一貫した手法として,モーフィング攻撃可能性(MAP)を紹介する。
- 参考スコア(独自算出の注目度): 19.14832588587427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In security systems the risk assessment in the sense of common criteria
testing is a very relevant topic; this requires quantifying the attack
potential in terms of the expertise of the attacker, his knowledge about the
target and access to equipment. Contrary to those attacks, the recently
revealed morphing attacks against Face Recognition Systems (FRSs) can not be
assessed by any of the above criteria. But not all morphing techniques pose the
same risk for an operational face recognition system. This paper introduces
with the Morphing Attack Potential (MAP) a consistent methodology, that can
quantify the risk, which a certain morphing attack creates.
- Abstract(参考訳): セキュリティシステムでは、共通基準テストの意味でのリスク評価は非常に重要なトピックであり、攻撃者の専門知識、標的に関する知識、機器へのアクセスといった観点から攻撃可能性の定量化が必要である。
これらの攻撃とは対照的に、最近発表された顔認識システム(FRS)に対するモルヒネ攻撃は、上記の基準では評価できない。
しかし、全てのフォーミング技術が、オペレーショナル顔認識システムに同じリスクをもたらすわけではない。
本稿では,特定のモーフィング攻撃が生み出すリスクを定量化する一貫した手法として,モーフィング攻撃可能性(MAP)を紹介する。
関連論文リスト
- Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Differential Anomaly Detection for Facial Images [15.54185745912878]
アイデンティティ攻撃は、不正アクセスと偽情報の拡散に使用できるため、セキュリティ上の大きな脅威となる。
同一性攻撃を検出するほとんどのアルゴリズムは、訓練時に未知の攻撃タイプに悪影響を及ぼす。
本稿では,まず画像から深層面の埋め込みを抽出する差動異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-07T13:45:13Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - On the Generalisation Capabilities of Fisher Vector based Face
Presentation Attack Detection [13.93832810177247]
顔提示攻撃検出技術は、既知の提示攻撃機器で評価されたときに良好な検出性能を報告しています。
本研究では,フィッシャーベクトルに基づく特徴空間を,コンパクトな2値化統計画像から計算し,ヒストグラムを用いた。
フリーで利用可能な顔データベースから取られた未知の攻撃に挑戦するために評価されたこの新しい表現は、有望な結果を示している。
論文 参考訳(メタデータ) (2021-03-02T13:49:06Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Attacks against Face Recognition: A Comprehensive Study [3.766020696203255]
顔認識(FR)システムは優れた検証性能を示した。
近年の研究では、(深い)FRシステムは、知覚できない、または知覚できないが自然に見える対向的な入力画像に興味深い脆弱性を示すことが示されている。
論文 参考訳(メタデータ) (2020-07-22T22:46:00Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。