論文の概要: Truly shift-equivariant convolutional neural networks with adaptive
polyphase upsampling
- arxiv url: http://arxiv.org/abs/2105.04040v1
- Date: Sun, 9 May 2021 22:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:36:56.974549
- Title: Truly shift-equivariant convolutional neural networks with adaptive
polyphase upsampling
- Title(参考訳): 適応型多相アップサンプリングを用いた完全シフト同変畳み込みニューラルネットワーク
- Authors: Anadi Chaman and Ivan Dokmani\'c
- Abstract要約: 画像分類において、適応型多相ダウンサンプリング(APS-D)はCNNを完全に不変にするために最近提案されている。
本稿では,従来のアップサンプリングの非線形拡張であるaps-u(adaptive polyphase upsampling)を提案する。
- 参考スコア(独自算出の注目度): 28.153820129486025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks lack shift equivariance due to the presence of
downsampling layers. In image classification, adaptive polyphase downsampling
(APS-D) was recently proposed to make CNNs perfectly shift invariant. However,
in networks used for image reconstruction tasks, it can not by itself restore
shift equivariance. We address this problem by proposing adaptive polyphase
upsampling (APS-U), a non-linear extension of conventional upsampling, which
allows CNNs to exhibit perfect shift equivariance. With MRI and CT
reconstruction experiments, we show that networks containing APS-D/U layers
exhibit state of the art equivariance performance without sacrificing on image
reconstruction quality. In addition, unlike prior methods like data
augmentation and anti-aliasing, the gains in equivariance obtained from APS-D/U
also extend to images outside the training distribution.
- Abstract(参考訳): 畳み込みニューラルネットワークは、ダウンサンプリング層の存在によるシフト等価性が欠如している。
画像分類において、適応型多相ダウンサンプリング(APS-D)はCNNを完全に不変にするために最近提案されている。
しかし、画像再構成作業に使用されるネットワークでは、それ自体はシフト等分を復元することはできない。
本稿では,従来のアップサンプリングの非線形拡張であるaps-u(adaptive polyphase upsampling)を提案することで,cnnが完全シフト同分散を示すことができる。
MRIとCTの再構成実験により, APS-D/U層を含むネットワークは, 画像再構成の品質を犠牲にすることなく, 同等性能を示すことを示した。
さらに、データ拡張やアンチエイリアス化といった従来の手法とは異なり、APS-D/Uから得られる等分散の利得はトレーニング分布外の画像にも及んでいる。
関連論文リスト
- Improving Shift Invariance in Convolutional Neural Networks with Translation Invariant Polyphase Sampling [14.731788603429774]
ダウンサンプリング演算子は畳み込みニューラルネットワーク(CNN)のシフト不変性を破る
翻訳不変多相サンプリング(TIPS)と呼ばれる学習可能なプーリング演算子を提案する。
TIPSは精度、シフト一貫性、シフト忠実度で一貫したパフォーマンス向上をもたらす。
論文 参考訳(メタデータ) (2024-04-11T00:49:38Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - f-DM: A Multi-stage Diffusion Model via Progressive Signal
Transformation [56.04628143914542]
拡散モデル(DM)は、最近、様々な領域で生成モデリングを行うためのSoTAツールとして登場した。
本稿では、プログレッシブ信号変換が可能なDMの一般化されたファミリであるf-DMを提案する。
我々は、ダウンサンプリング、ぼやけ、学習された変換を含む様々な機能を持つ画像生成タスクにf-DMを適用した。
論文 参考訳(メタデータ) (2022-10-10T18:49:25Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Sampling Equivariant Self-attention Networks for Object Detection in
Aerial Images [36.9958603490323]
空中画像の物体は、通常の画像よりもスケールや方向のバリエーションが大きいため、検出はより困難である。
本稿では,局所的なイメージパッチに制限された自己アテンションを考慮した同変自己アテンションネットワークのサンプリングを提案する。
また, 空画像データに制限があるため, オーバーフィッティングに対処するために, ランダム化正規化モジュールを新たに導入した。
論文 参考訳(メタデータ) (2021-11-05T11:48:04Z) - Truly shift-invariant convolutional neural networks [0.0]
近年の研究では、CNNの出力は入力の小さなシフトで大きく変化することが示されている。
本稿では,適応型多相サンプリング(APS)を提案する。これは,畳み込みニューラルネットワークが,シフト下での分類性能において100%整合性を実現するための,単純なサブサンプリング手法である。
論文 参考訳(メタデータ) (2020-11-28T20:57:35Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Group Equivariant Generative Adversarial Networks [7.734726150561089]
本研究では,グループ同変畳み込みネットワークを通じて,帰納的対称性をネットワークアーキテクチャに明示的に組み込む。
群変換はより表現力が高く、サンプルが少ないため、ジェネレータと判別器の間の勾配フィードバックが向上する。
論文 参考訳(メタデータ) (2020-05-04T17:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。