論文の概要: Perceptual Deep Neural Networks: Adversarial Robustness through Input
Recreation
- arxiv url: http://arxiv.org/abs/2009.01110v4
- Date: Mon, 30 Nov 2020 10:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:16:51.763011
- Title: Perceptual Deep Neural Networks: Adversarial Robustness through Input
Recreation
- Title(参考訳): 知覚深部ニューラルネットワーク:入力レクリエーションによる対向ロバスト性
- Authors: Danilo Vasconcellos Vargas, Bingli Liao, Takahiro Kanzaki
- Abstract要約: 機械がどのように入力を再現し、そのような拡張された知覚の利点を調査できるかを示す。
我々は、さらに処理する前に独自の入力を再現するPerceptual Deep Neural Networks(varphi$DNN)を提案する。
実験の結果、$varphi$DNNsとその逆行訓練のバリエーションはロバスト性を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 11.021984764549549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples have shown that albeit highly accurate, models learned
by machines, differently from humans, have many weaknesses. However, humans'
perception is also fundamentally different from machines, because we do not see
the signals which arrive at the retina but a rather complex recreation of them.
In this paper, we explore how machines could recreate the input as well as
investigate the benefits of such an augmented perception. In this regard, we
propose Perceptual Deep Neural Networks ($\varphi$DNN) which also recreate
their own input before further processing. The concept is formalized
mathematically and two variations of it are developed (one based on inpainting
the whole image and the other based on a noisy resized super resolution
recreation). Experiments reveal that $\varphi$DNNs and their adversarial
training variations can increase the robustness substantially, surpassing both
state-of-the-art defenses and pre-processing types of defenses in 100% of the
tests. $\varphi$DNNs are shown to scale well to bigger image sizes, keeping a
similar high accuracy throughout; while the state-of-the-art worsen up to 35%.
Moreover, the recreation process intentionally corrupts the input image.
Interestingly, we show by ablation tests that corrupting the input is, although
counter-intuitive, beneficial. Thus, $\varphi$DNNs reveal that input recreation
has strong benefits for artificial neural networks similar to biological ones,
shedding light into the importance of purposely corrupting the input as well as
pioneering an area of perception models based on GANs and autoencoders for
robust recognition in artificial intelligence.
- Abstract(参考訳): 逆の例では、機械によって学習されたモデルは、人間とは違って、非常に正確であるが、多くの弱点があることが示されている。
しかし、人間の知覚は、網膜に到着する信号を見るのではなく、かなり複雑なレクリエーションが見られるため、機械と根本的に異なる。
本稿では、機械が入力を再生成し、そのような拡張された知覚の利点を調べる方法について検討する。
本稿では、さらに処理する前に独自の入力を再現するPerceptual Deep Neural Networks(\varphi$DNN)を提案する。
この概念は数学的に定式化され、2つのバリエーションが開発されている(1つは画像全体ともう1つはノイズの多い再サイズされた超解像度レクリエーションに基づく)。
実験によると、$\varphi$DNNsとその敵対的トレーニングのバリエーションは、100%のテストで最先端の防御と前処理の防御の両方を上回っ、ロバスト性を大幅に向上させることができる。
$\varphi$dnnsは、より大きな画像サイズにスケールし、同等の精度を維持することが示され、最先端の技術は35%まで悪化する。
さらに、レクリエーション処理は、入力画像を意図的に破損させる。
興味深いことに、入力の破損は直感に反するが有益であることを示すアブレーションテストによって示される。
したがって、$\varphi$DNNsは、入力レクリエーションが生物学的ニューラルネットワークに類似した人工知能に強力な利点があることを明らかにし、入力を意図的に破壊することの重要性に光を当て、人工知能における堅牢な認識のためのGANとオートエンコーダに基づく知覚モデルの分野を開拓した。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Performance-optimized deep neural networks are evolving into worse
models of inferotemporal visual cortex [8.45100792118802]
深部ニューラルネットワーク(DNN)の物体認識精度は,非時間的(IT)大脳皮質の自然画像に対する神経応答を予測する能力と相関することを示した。
この結果から,高調波DNNは画像ネット精度とニューラル予測精度のトレードオフを断ち切ることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:34:45Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Adversarially trained neural representations may already be as robust as
corresponding biological neural representations [66.73634912993006]
本研究では,霊長類脳活動に直接対人的視覚攻撃を行う方法を開発した。
霊長類の視覚系を構成する生物学的ニューロンは、既存の(不正に訓練された)人工ニューラルネットワークに匹敵する敵の摂動に感受性を示す。
論文 参考訳(メタデータ) (2022-06-19T04:15:29Z) - MetaAvatar: Learning Animatable Clothed Human Models from Few Depth
Images [60.56518548286836]
新規な入力ポーズから現実的な布の変形を生成するには、通常、水密メッシュや高密度フルボディスキャンが入力として必要とされる。
本研究では, 単眼深度画像のみを考慮し, 制御可能なニューラルSDFとして表現された, リアルな衣服付きアバターを迅速に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T17:30:12Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Exploring the role of Input and Output Layers of a Deep Neural Network
in Adversarial Defense [0.0]
通常の人間を騙すのではなく、モデルを完全に誤解させる可能性のある、ある種の入力が存在することが示されている。
逆入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。
本研究は, 完全に接続された3種類の高密度ネットワークの非段階的攻撃に対する耐性を解析した。
論文 参考訳(メタデータ) (2020-06-02T06:15:46Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Recurrent Attention Model with Log-Polar Mapping is Robust against
Adversarial Attacks [0.0]
我々は,注目によって制御される対数極性視野を持つデータを連続的に収集する,新しいニューラルネットワークモデルを開発した。
本研究では,SPSA攻撃とPGD攻撃に対する防御として,この設計の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-13T08:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。