論文の概要: Adversarial Attack on Facial Recognition using Visible Light
- arxiv url: http://arxiv.org/abs/2011.12680v1
- Date: Wed, 25 Nov 2020 12:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:04:06.891319
- Title: Adversarial Attack on Facial Recognition using Visible Light
- Title(参考訳): 可視光を用いた顔認識に対する敵対的攻撃
- Authors: Morgan Frearson, Kien Nguyen
- Abstract要約: 本稿では,顔認証システムにおける可視光を用いた対向攻撃の最終報告について述べる。
この研究の関連性は、ディープニューラルネットワークの物理的ダウンフォールを利用することである。
これらのシステムの弱点の実証は、将来オブジェクト認識のトレーニングモデルを改善するためにこの研究が使われることを期待している。
- 参考スコア(独自算出の注目度): 4.448212204915639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of deep learning for human identification and object detection is
becoming ever more prevalent in the surveillance industry. These systems have
been trained to identify human body's or faces with a high degree of accuracy.
However, there have been successful attempts to fool these systems with
different techniques called adversarial attacks. This paper presents a final
report for an adversarial attack using visible light on facial recognition
systems. The relevance of this research is to exploit the physical downfalls of
deep neural networks. This demonstration of weakness within these systems are
in hopes that this research will be used in the future to improve the training
models for object recognition. As results were gathered the project objectives
were adjusted to fit the outcomes. Because of this the following paper
initially explores an adversarial attack using infrared light before
readjusting to a visible light attack. A research outline on infrared light and
facial recognition are presented within. A detailed analyzation of the current
findings and possible future recommendations of the project are presented. The
challenges encountered are evaluated and a final solution is delivered. The
projects final outcome exhibits the ability to effectively fool recognition
systems using light.
- Abstract(参考訳): 人間の識別と物体検出におけるディープラーニングの利用は、監視業界でますます普及している。
これらのシステムは、高い精度で人体や顔を特定するように訓練されている。
しかし、これらシステムを敵の攻撃と呼ばれる異なる手法で騙す試みは成功している。
本稿では,顔認識システムにおける可視光を用いた対向攻撃の最終報告を示す。
この研究の関連性は、ディープニューラルネットワークの物理的欠点を利用することである。
これらのシステムの弱点の実証は、将来オブジェクト認識のトレーニングモデルを改善するためにこの研究が使われることを期待している。
結果が集められると、プロジェクトの目的が結果に合うように調整された。
このため、まずまず赤外光を用いた対向攻撃を探索し、その後、可視光攻撃に順応する。
赤外線光と顔認識に関する研究概要が内在する。
現状の詳細な分析と今後のプロジェクトの推奨事項について紹介する。
遭遇した課題を評価し、最終的な解決策を提供する。
最終的な結果は、光を用いた認識システムを効果的に騙す能力を示す。
関連論文リスト
- Deep Learning Technology for Face Forgery Detection: A Survey [17.519617618071003]
ディープラーニングにより、高忠実度顔画像やビデオの作成や操作が可能になった。
この技術はディープフェイクとしても知られ、劇的な進歩を遂げ、ソーシャルメディアで人気を博している。
ディープフェイクのリスクを低減するため、強力な偽造検出方法を開発することが望ましい。
論文 参考訳(メタデータ) (2024-09-22T01:42:01Z) - Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks and Defences for Skin Cancer Classification [0.0]
このようなシステムの利用の増加は、医療業界で見ることができる。
このようなシステムの脆弱性を理解することがますます重要になっている。
本稿では,一般的な対人攻撃手法について検討する。
論文 参考訳(メタデータ) (2022-12-13T18:58:21Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Introduction to Presentation Attack Detection in Face Biometrics and
Recent Advances [21.674697346594158]
次のページでは、顔認識システムが直面する可能性のある、異なるプレゼンテーションアタックを示す。
顔認識の現状と,その展開レベル,課題について紹介する。
我々は,より単純なものからより複雑なものまで,さまざまな種類のプレゼンテーションアタック手法について検討し,その効果を検証した。
論文 参考訳(メタデータ) (2021-11-23T11:19:22Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study [21.42041262836322]
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
論文 参考訳(メタデータ) (2020-03-24T23:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。