論文の概要: Training on Foveated Images Improves Robustness to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2308.00854v1
- Date: Tue, 1 Aug 2023 21:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 14:29:04.548130
- Title: Training on Foveated Images Improves Robustness to Adversarial Attacks
- Title(参考訳): 対向攻撃に対するロバスト性を改善する焦点画像の訓練
- Authors: Muhammad A. Shah and Bhiksha Raj
- Abstract要約: ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが示されている。
RBlurは、画像のぼやけて彩度を下げることで、周辺視力の損失をシミュレートする画像変換である。
RBlurによって変換された画像に基づいてトレーニングされたDNNは、敵対的攻撃や、他の非敵的、汚職に対してかなり堅牢であり、摂動データに対して最大25%高い精度を達成する。
- 参考スコア(独自算出の注目度): 26.472800216546233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been shown to be vulnerable to adversarial
attacks -- subtle, perceptually indistinguishable perturbations of inputs that
change the response of the model. In the context of vision, we hypothesize that
an important contributor to the robustness of human visual perception is
constant exposure to low-fidelity visual stimuli in our peripheral vision. To
investigate this hypothesis, we develop \RBlur, an image transform that
simulates the loss in fidelity of peripheral vision by blurring the image and
reducing its color saturation based on the distance from a given fixation
point. We show that compared to DNNs trained on the original images, DNNs
trained on images transformed by \RBlur are substantially more robust to
adversarial attacks, as well as other, non-adversarial, corruptions, achieving
up to 25\% higher accuracy on perturbed data.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、モデルの応答を変化させる入力の微妙で知覚的に区別できない摂動によって、敵の攻撃に弱いことが示されている。
視覚の文脈では、人間の視覚知覚のロバスト性に重要な貢献者は、末梢視覚における低忠実な視覚刺激に常に露出していると仮定する。
この仮説を考察するために,画像のぼかし,所定の固定点からの距離に基づいて彩度を小さくすることで周辺視の忠実度損失をシミュレートする画像変換である \RBlur を開発した。
元の画像で訓練されたdnnと比較して、 \rblur で変換された画像で訓練されたdnnは、敵対的攻撃や、非敵対的、腐敗に対してかなり頑健であり、摂動データの精度は最大25%高いことが示されている。
関連論文リスト
- Leveraging the Human Ventral Visual Stream to Improve Neural Network Robustness [8.419105840498917]
人間の物体認識は、乱雑でダイナミックな視覚環境において顕著なレジリエンスを示す。
多くの視覚的タスクにまたがるパフォーマンスにもかかわらず、Deep Neural Networks(DNN)は人間よりもはるかに堅牢である。
ここでは,人間の腹側視覚ストリームの階層的な領域から神経表現によって誘導されたDNNが,敵の攻撃に対する堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:33:20Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - On Adversarial Robustness of Deep Image Deblurring [15.66170693813815]
本稿では,深層学習に基づく画像デブロワー法に対する敵対的攻撃を提案する。
本研究では,非知覚歪みが最先端の劣化ネットワークの性能を著しく低下させることを示した。
論文 参考訳(メタデータ) (2022-10-05T18:31:33Z) - Human Eyes Inspired Recurrent Neural Networks are More Robust Against Adversarial Noises [7.689542442882423]
我々は人間の脳にインスパイアされたデュアルストリーム視覚モデルを設計した。
このモデルは網膜のような入力層を特徴とし、次の焦点(固定点)を決定する2つのストリームと、固定点を取り巻く視覚を解釈する2つのストリームを含む。
このモデルを,物体認識,視線行動,対向強靭性の観点から評価した。
論文 参考訳(メタデータ) (2022-06-15T03:44:42Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。