論文の概要: Content-Adaptive Downsampling in Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2305.09504v1
- Date: Tue, 16 May 2023 14:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:40:06.938963
- Title: Content-Adaptive Downsampling in Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおけるコンテンツ適応型ダウンサンプリング
- Authors: Robin Hesse, Simone Schaub-Meyer, Stefan Roth
- Abstract要約: 多くの畳み込みニューラルネットワーク(CNN)は、ネットワークの受容領域を増大させ、計算コストを低減させるために、特徴マップのプログレッシブなダウンサンプリングに依存している。
これは、機能マップの粒度が失われ、画像の正確な理解や、密集した予測タスクの詳細な再現が制限されるためである。
本稿では,より少ない情報領域よりも高分解能で情報領域を処理できるようにすることにより,上記のアイデアを一般化する適応型ダウンサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 15.073405675079558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many convolutional neural networks (CNNs) rely on progressive downsampling of
their feature maps to increase the network's receptive field and decrease
computational cost. However, this comes at the price of losing granularity in
the feature maps, limiting the ability to correctly understand images or
recover fine detail in dense prediction tasks. To address this, common practice
is to replace the last few downsampling operations in a CNN with dilated
convolutions, allowing to retain the feature map resolution without reducing
the receptive field, albeit increasing the computational cost. This allows to
trade off predictive performance against cost, depending on the output feature
resolution. By either regularly downsampling or not downsampling the entire
feature map, existing work implicitly treats all regions of the input image and
subsequent feature maps as equally important, which generally does not hold. We
propose an adaptive downsampling scheme that generalizes the above idea by
allowing to process informative regions at a higher resolution than less
informative ones. In a variety of experiments, we demonstrate the versatility
of our adaptive downsampling strategy and empirically show that it improves the
cost-accuracy trade-off of various established CNNs.
- Abstract(参考訳): 多くの畳み込みニューラルネットワーク(cnns)は、ネットワークの受容場を増加させ、計算コストを下げるために、機能マップの漸進的なダウンサンプリングに依存している。
しかし、これは機能マップの粒度を失う価格で、画像を正確に理解したり、密集した予測タスクで詳細を復元する能力を制限する。
これに対処するために、cnnにおける最後のいくつかのダウンサンプリング操作を拡張畳み込みに置き換え、レセプティブフィールドを減少させることなく、計算コストを増加させることなく特徴マップの解像度を維持することが一般的である。
これにより、アウトプット機能の解像度に応じて、予測パフォーマンスとコストのトレードオフが可能になる。
機能マップ全体を定期的にダウンサンプリングするか、あるいはダウンサンプリングしないかによって、既存の作業は、入力画像とその後の機能マップのすべての領域を、一般的には保持されない同じくらい重要なものとして暗黙的に扱う。
提案手法は,情報領域をより高分解能で処理することで,上記の概念を一般化した適応型ダウンサンプリング方式を提案する。
様々な実験において、適応型ダウンサンプリング戦略の汎用性を示し、様々な確立されたcnnのコスト正確性トレードオフを改善することを実証的に示した。
関連論文リスト
- CEC-CNN: A Consecutive Expansion-Contraction Convolutional Network for
Very Small Resolution Medical Image Classification [0.8108972030676009]
深層・中層・浅層からのマルチスケール特徴を保存できる新しいCNNアーキテクチャを提案する。
膵管腺癌(PDAC)CTの超低解像度パッチのデータセットを用いて,我々のネットワークが最先端のアートモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-09-27T20:01:12Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Unpaired Image Super-Resolution with Optimal Transport Maps [128.1189695209663]
実世界の画像超解像(SR)タスクは、しばしば、教師付き技術の適用を制限するペアデータセットを持っていない。
本稿では,非バイアスのOTマップを知覚輸送コストで学習する未ペアSRのアルゴリズムを提案する。
我々のアルゴリズムは、大規模無人AIM-19データセット上で、最先端のパフォーマンスをほぼ提供する。
論文 参考訳(メタデータ) (2022-02-02T16:21:20Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Dynamic Resolution Network [40.64164953983429]
現代のCNNの入力解像度の冗長性については、完全には研究されていない。
本稿では,各サンプルに基づいて動的に分解能を決定できる新しい動的分解能ネットワーク(DRNet)を提案する。
DRNetは34%の精度で同様の性能を実現しているが、ImageNetのResNet-50に比べて10%の精度で1.4%の精度向上を実現している。
論文 参考訳(メタデータ) (2021-06-05T13:48:33Z) - Truly shift-invariant convolutional neural networks [0.0]
近年の研究では、CNNの出力は入力の小さなシフトで大きく変化することが示されている。
本稿では,適応型多相サンプリング(APS)を提案する。これは,畳み込みニューラルネットワークが,シフト下での分類性能において100%整合性を実現するための,単純なサブサンプリング手法である。
論文 参考訳(メタデータ) (2020-11-28T20:57:35Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Improving the Resolution of CNN Feature Maps Efficiently with
Multisampling [8.655380837944188]
我々の手法の1つのバージョンはサブサンプリングと呼ばれ、追加のパラメータなしでDenseNetやResNetのような最先端アーキテクチャの精度を大幅に向上させる。
データ拡張の性質について可能な洞察を与え、粗い特徴マップが画像分類におけるニューラルネットワークのパフォーマンスをボトルネックにしていることを実験的に実証する。
論文 参考訳(メタデータ) (2018-05-28T04:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。