論文の概要: Time for a Background Check! Uncovering the impact of Background
Features on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2006.14077v1
- Date: Wed, 24 Jun 2020 22:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:40:42.789045
- Title: Time for a Background Check! Uncovering the impact of Background
Features on Deep Neural Networks
- Title(参考訳): バックグラウンドチェックの時間!
バックグラウンド特徴がディープニューラルネットワークに与える影響を明らかにする
- Authors: Vikash Sehwag, Rajvardhan Oak, Mung Chiang, Prateek Mittal
- Abstract要約: 本稿では,深層ニューラルネットワークの性能向上が背景特性に与える影響について検討する。
我々は、最大10億の画像で訓練された小型ネットワークから大規模ネットワークまで、32種類のニューラルネットワークで実験を行った。
本研究は,DNNの表現力の向上が背景特徴の影響を増大させる一方で,背景特徴がランダムに選択されたテクスチャベース背景に置き換えられた場合に,背景特徴が正しい予測を行う能力を高めることを明らかにする。
- 参考スコア(独自算出の注目度): 46.21755841500046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With increasing expressive power, deep neural networks have significantly
improved the state-of-the-art on image classification datasets, such as
ImageNet. In this paper, we investigate to what extent the increasing
performance of deep neural networks is impacted by background features? In
particular, we focus on background invariance, i.e., accuracy unaffected by
switching background features and background influence, i.e., predictive power
of background features itself when foreground is masked. We perform experiments
with 32 different neural networks ranging from small-size networks to
large-scale networks trained with up to one Billion images. Our investigations
reveal that increasing expressive power of DNNs leads to higher influence of
background features, while simultaneously, increases their ability to make the
correct prediction when background features are removed or replaced with a
randomly selected texture-based background.
- Abstract(参考訳): 表現力の向上に伴い、ディープニューラルネットワークはimagenetのような画像分類データセットの最先端を大幅に改善した。
本稿では,深層ニューラルネットワークの性能向上が背景特性に与える影響について検討する。
特に,背景の非分散,すなわち背景特徴と背景影響の切り替えによって影響を受けない精度,すなわちフォアグラウンドでの背景特徴の予測能力に着目した。
小型ネットワークから最大10億画像で訓練された大規模ネットワークまで,32種類のニューラルネットワークを用いて実験を行った。
本研究は,DNNの表現力の向上が背景特徴の影響を増大させる一方で,背景特徴がランダムに選択されたテクスチャベース背景に置き換えられた場合に,背景特徴が正しい予測を行う能力を高めることを明らかにする。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Understanding the Benefits of Image Augmentations [21.484165019581482]
Centered Kernel Alignment (CKA) を用いて, 残留ニューラルネットワーク(ResNet)のどの層が最も影響を受けているかを検討した。
このパターンはモデルの深さに依存しており、2つの画像から情報を利用する拡張で訓練されたネットワークは、1つの画像で操作する拡張よりも、学習した重みに大きく影響することがわかった。
論文 参考訳(メタデータ) (2023-06-09T20:52:44Z) - Understanding the Influence of Receptive Field and Network Complexity in
Neural-Network-Guided TEM Image Analysis [0.0]
透過電子顕微鏡(TEM)画像において,ニューラルネットワークのアーキテクチャ選択がニューラルネットワークセグメントに与える影響を系統的に検討した。
背景からナノ粒子を区別するために振幅コントラストに依存した低分解能TEM画像の場合、受容場はセグメンテーション性能に有意な影響を与えない。
一方、ナノ粒子を識別するために振幅と位相コントラストの組合せに依存する高分解能TEM画像では、受容場が性能向上の鍵となるパラメータである。
論文 参考訳(メタデータ) (2022-04-08T18:45:15Z) - Shallow Feature Based Dense Attention Network for Crowd Counting [103.67446852449551]
静止画像から群衆を数えるためのShallow機能に基づくDense Attention Network (SDANet)を提案する。
提案手法は,SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように,既存の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-06-17T13:34:42Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Reproduction of Lateral Inhibition-Inspired Convolutional Neural Network
for Visual Attention and Saliency Detection [0.0]
ニューラルネットワークは 自然画像の例と 効果的に混同されます
対象の分類は,対象が位置する背景画素の影響を強く受けているのではないかと思う。
この目的のために,licNNネットワークが作成した有能度マップを用いて,上記の問題を解析する。
論文 参考訳(メタデータ) (2020-05-05T13:55:47Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。