論文の概要: Does enhanced shape bias improve neural network robustness to common
corruptions?
- arxiv url: http://arxiv.org/abs/2104.09789v1
- Date: Tue, 20 Apr 2021 07:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 22:40:19.036792
- Title: Does enhanced shape bias improve neural network robustness to common
corruptions?
- Title(参考訳): 形状バイアスの強化は、ニューラルネットワークの堅牢性を改善するか?
- Authors: Chaithanya Kumar Mummadi, Ranjitha Subramaniam, Robin Hutmacher,
Julien Vitay, Volker Fischer, Jan Hendrik Metzen
- Abstract要約: 最近の研究は、ImageNetで訓練されたCNNがテクスチャをエンコードする機能に偏っていることを示している。
異なる画像スタイルでトレーニングデータを増強すると、このテクスチャバイアスが減少し、形状バイアスが増加することが示されている。
自然画像や明示的なエッジ情報,スタイライゼーションに基づいて,入力を構成するさまざまな方法に関する体系的な研究を行う。
- 参考スコア(独自算出の注目度): 14.607217936005817
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Convolutional neural networks (CNNs) learn to extract representations of
complex features, such as object shapes and textures to solve image recognition
tasks. Recent work indicates that CNNs trained on ImageNet are biased towards
features that encode textures and that these alone are sufficient to generalize
to unseen test data from the same distribution as the training data but often
fail to generalize to out-of-distribution data. It has been shown that
augmenting the training data with different image styles decreases this texture
bias in favor of increased shape bias while at the same time improving
robustness to common corruptions, such as noise and blur. Commonly, this is
interpreted as shape bias increasing corruption robustness. However, this
relationship is only hypothesized. We perform a systematic study of different
ways of composing inputs based on natural images, explicit edge information,
and stylization. While stylization is essential for achieving high corruption
robustness, we do not find a clear correlation between shape bias and
robustness. We conclude that the data augmentation caused by style-variation
accounts for the improved corruption robustness and increased shape bias is
only a byproduct.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、画像認識タスクを解決するために、オブジェクトの形状やテクスチャなどの複雑な特徴の表現を抽出することを学ぶ。
近年の研究では、imagenetでトレーニングされたcnnはテクスチャをエンコードする機能に偏っており、これらはトレーニングデータと同じ分布から取得したテストデータを一般化するのに十分であるが、分散データへの一般化に失敗することがしばしばある。
異なる画像スタイルでトレーニングデータを増強すると、このテクスチャバイアスが減少し、形状バイアスが増大する一方、ノイズやぼやけなどの一般的な汚損に対する堅牢性が向上することが示されている。
一般的にこれは、腐敗の堅牢性を高める形バイアスとして解釈される。
しかし、この関係は仮定に過ぎなかった。
自然画像や明示的なエッジ情報,スタイライゼーションに基づいて,入力を構成するさまざまな方法に関する体系的な研究を行う。
高汚損性を達成するためにはスタイリゼーションが不可欠であるが, 形状バイアスとロバスト性との間に明確な相関関係は見つからない。
形態変化によるデータ増大は, 腐敗の堅牢性の向上と形状バイアスの増大は副産物に過ぎないと結論づける。
関連論文リスト
- Emergence of Shape Bias in Convolutional Neural Networks through
Activation Sparsity [8.54598311798543]
現在の物体認識のためのディープラーニングモデルはテクスチャに大きく偏っている。
対照的に、人間の視覚系は形状や構造に偏っていることが知られている。
脳内のユビキタスな原理であるスパースコーディングは、それ自体がネットワークに形状バイアスをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2023-10-29T04:07:52Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Data Generation using Texture Co-occurrence and Spatial Self-Similarity
for Debiasing [6.976822832216875]
本稿では, 反対ラベル付き画像のテクスチャ表現を用いて, 付加画像を明示的に生成する新しいデバイアス手法を提案する。
新たに生成された各画像は、反対ラベルのターゲット画像からテクスチャを転送しながら、ソース画像から類似した空間情報を含む。
本モデルでは,生成画像のテクスチャがターゲットと類似しているか否かを決定するテクスチャ共起損失と,生成画像とソース画像間の空間的詳細がよく保存されているかどうかを決定する空間的自己相似損失とを統合する。
論文 参考訳(メタデータ) (2021-10-15T08:04:59Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Informative Dropout for Robust Representation Learning: A Shape-bias
Perspective [84.30946377024297]
Informative Dropout (InfoDrop) と呼ばれる軽量モデル非依存の手法を提案し, 解釈性の向上とテクスチャバイアスの低減を図る。
具体的には、画像中の局所的な自己情報に基づいて形状からテクスチャを識別し、Dropoutのようなアルゴリズムを用いて局所的なテクスチャからのモデル出力をデコレーションする。
論文 参考訳(メタデータ) (2020-08-10T16:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。