論文の概要: Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain
- arxiv url: http://arxiv.org/abs/2001.11137v3
- Date: Mon, 8 Feb 2021 07:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 11:38:59.858392
- Title: Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain
- Title(参考訳): 顔認識領域における畳み込みニューラルネットワークの逆攻撃
- Authors: Yigit Alparslan, Ken Alparslan, Jeremy Keim-Shenk, Shweta Khade,
Rachel Greenstadt
- Abstract要約: Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
- 参考スコア(独自算出の注目度): 2.4704085162861693
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Numerous recent studies have demonstrated how Deep Neural Network (DNN)
classifiers can be fooled by adversarial examples, in which an attacker adds
perturbations to an original sample, causing the classifier to misclassify the
sample. Adversarial attacks that render DNNs vulnerable in real life represent
a serious threat in autonomous vehicles, malware filters, or biometric
authentication systems. In this paper, we apply Fast Gradient Sign Method to
introduce perturbations to a facial image dataset and then test the output on a
different classifier that we trained ourselves, to analyze transferability of
this method. Next, we craft a variety of different black-box attack algorithms
on a facial image dataset assuming minimal adversarial knowledge, to further
assess the robustness of DNNs in facial recognition. While experimenting with
different image distortion techniques, we focus on modifying single optimal
pixels by a large amount, or modifying all pixels by a smaller amount, or
combining these two attack approaches. While our single-pixel attacks achieved
about a 15% average decrease in classifier confidence level for the actual
class, the all-pixel attacks were more successful and achieved up to an 84%
average decrease in confidence, along with an 81.6% misclassification rate, in
the case of the attack that we tested with the highest levels of perturbation.
Even with these high levels of perturbation, the face images remained
identifiable to a human. Understanding how these noised and perturbed images
baffle the classification algorithms can yield valuable advances in the
training of DNNs against defense-aware adversarial attacks, as well as adaptive
noise reduction techniques. We hope our research may help to advance the study
of adversarial attacks on DNNs and defensive mechanisms to counteract them,
particularly in the facial recognition domain.
- Abstract(参考訳): 近年の多くの研究で、ディープニューラルネットワーク(DNN)分類器が、攻撃者が元のサンプルに摂動を付加し、分類器がサンプルを誤分類する敵の例によって騙されることを示した。
DNNを現実世界で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
本稿では,Fast Gradient Sign Method を用いて顔画像データセットに摂動を導入し,トレーニングした異なる分類器で出力をテストし,この手法の転送性について解析する。
次に,顔認識におけるdnnのロバスト性をさらに評価するために,顔画像データセット上に様々なブラックボックス攻撃アルゴリズムを構築する。
異なる画像歪み法を実験しながら、1つの最適なピクセルを大量に修正するか、全てのピクセルを少量で修正するか、これら2つの攻撃手法を組み合わせることに集中する。
私たちのシングルピクセル攻撃は、実際のクラスで分類子信頼度が約15%低下したのに対して、全ピクセル攻撃はより成功し、84%の平均信頼度低下と81.6%の誤分類率を達成した。
これらの高い摂動レベルにもかかわらず、顔画像は人間に識別され続けた。
これらのノイズや摂動画像が、どのように分類アルゴリズムに悪影響を及ぼすかを理解することで、DNNの防御に配慮した敵攻撃に対する訓練や適応的なノイズ低減技術に価値ある進歩をもたらすことができる。
我々の研究は、特に顔認識領域において、dnnに対する敵対的攻撃とそれらに対抗する防御メカニズムの研究を前進させることを望んでいる。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification [6.594522185216161]
直感的な対人学習を導入し、標準的な自然の正確さと頑健さの追求と相乗効果を実証する。
具体的には、より自然な精度を維持しながら頑健なモデルを学ぶのに有用な、合理的な敵を定義する。
暗黙の損失トランケーションを用いてロバストモデルをトレーニングする,新しい,効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-20T22:57:44Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。