論文の概要: Training on Foveated Images Improves Robustness to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2308.00854v1
- Date: Tue, 1 Aug 2023 21:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 14:29:04.548130
- Title: Training on Foveated Images Improves Robustness to Adversarial Attacks
- Title(参考訳): 対向攻撃に対するロバスト性を改善する焦点画像の訓練
- Authors: Muhammad A. Shah and Bhiksha Raj
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが示されている。
RBlurは、画像のぼやけて彩度を下げることで、周辺視力の損失をシミュレートする画像変換である。
RBlurによって変換された画像に基づいてトレーニングされたDNNは、敵対的攻撃や、他の非敵的、汚職に対してかなり堅牢であり、摂動データに対して最大25%高い精度を達成する。
- 参考スコア(独自算出の注目度): 26.472800216546233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been shown to be vulnerable to adversarial
attacks -- subtle, perceptually indistinguishable perturbations of inputs that
change the response of the model. In the context of vision, we hypothesize that
an important contributor to the robustness of human visual perception is
constant exposure to low-fidelity visual stimuli in our peripheral vision. To
investigate this hypothesis, we develop \RBlur, an image transform that
simulates the loss in fidelity of peripheral vision by blurring the image and
reducing its color saturation based on the distance from a given fixation
point. We show that compared to DNNs trained on the original images, DNNs
trained on images transformed by \RBlur are substantially more robust to
adversarial attacks, as well as other, non-adversarial, corruptions, achieving
up to 25\% higher accuracy on perturbed data.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、モデルの応答を変化させる入力の微妙で知覚的に区別できない摂動によって、敵の攻撃に弱いことが示されている。
視覚の文脈では、人間の視覚知覚のロバスト性に重要な貢献者は、末梢視覚における低忠実な視覚刺激に常に露出していると仮定する。
この仮説を考察するために,画像のぼかし,所定の固定点からの距離に基づいて彩度を小さくすることで周辺視の忠実度損失をシミュレートする画像変換である \RBlur を開発した。
元の画像で訓練されたdnnと比較して、 \rblur で変換された画像で訓練されたdnnは、敵対的攻撃や、非敵対的、腐敗に対してかなり頑健であり、摂動データの精度は最大25%高いことが示されている。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - On Adversarial Robustness of Deep Image Deblurring [15.66170693813815]
本稿では,深層学習に基づく画像デブロワー法に対する敵対的攻撃を提案する。
本研究では,非知覚歪みが最先端の劣化ネットワークの性能を著しく低下させることを示した。
論文 参考訳(メタデータ) (2022-10-05T18:31:33Z) - Human Eyes Inspired Recurrent Neural Networks are More Robust Against
Adversarial Noises [3.8738982761490988]
人間の視覚と比較して、畳み込みニューラルネットワーク(CNN)に基づくコンピュータビジョンは、敵の雑音に対してより脆弱である。
この違いは、眼が視覚入力をどのようにサンプルし、脳が網膜サンプルを背側および腹側視覚経路を通してどのように処理するかに起因している可能性が高い。
我々は、人間の網膜を模倣する入力サンプリング器、次に見る場所を案内する背側ネットワーク、網膜のサンプルを表す腹側ネットワークを含む、反復的なニューラルネットワークを設計する。
これらのモジュールをひとつにまとめると、モデルはイメージを複数回見て、各見た目で健全な部分に参加し、画像を認識するために時間をかけて表現を蓄積する。
論文 参考訳(メタデータ) (2022-06-15T03:44:42Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Adversarial Exposure Attack on Diabetic Retinopathy Imagery [69.90046859398014]
糖尿病網膜症(DR)は、世界でも主要な視覚喪失の原因であり、多くの最先端の研究が強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDR症例を自動的に分類している。
RFIは通常、広く存在するカメラ露光の影響を受け、DNNの露光に対する堅牢性は滅多に調査されない。
本稿では, 対角攻撃の観点からこの問題を考察し, 全く新しいタスク, すなわち, 対向画像を生成する対向露光攻撃を同定する。
論文 参考訳(メタデータ) (2020-09-19T13:47:33Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。