論文の概要: Truly Scale-Equivariant Deep Nets with Fourier Layers
- arxiv url: http://arxiv.org/abs/2311.02922v1
- Date: Mon, 6 Nov 2023 07:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:58:07.423567
- Title: Truly Scale-Equivariant Deep Nets with Fourier Layers
- Title(参考訳): フーリエ層を有する完全スケール同変深層ネット
- Authors: Md Ashiqur Rahman, Raymond A. Yeh
- Abstract要約: コンピュータビジョンでは、モデルが画像の解像度の変化に適応し、画像分割などのタスクを効果的に実行できなければならない。
最近の研究は、ウェイトシェアリングとカーネルのリサイズを通じて、スケール平等な畳み込みニューラルネットワークの開発を進展させた。
本稿では,Fourier層に基づく新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 14.072558848402362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In computer vision, models must be able to adapt to changes in image
resolution to effectively carry out tasks such as image segmentation; This is
known as scale-equivariance. Recent works have made progress in developing
scale-equivariant convolutional neural networks, e.g., through weight-sharing
and kernel resizing. However, these networks are not truly scale-equivariant in
practice. Specifically, they do not consider anti-aliasing as they formulate
the down-scaling operation in the continuous domain. To address this
shortcoming, we directly formulate down-scaling in the discrete domain with
consideration of anti-aliasing. We then propose a novel architecture based on
Fourier layers to achieve truly scale-equivariant deep nets, i.e., absolute
zero equivariance-error. Following prior works, we test this model on
MNIST-scale and STL-10 datasets. Our proposed model achieves competitive
classification performance while maintaining zero equivariance-error.
- Abstract(参考訳): コンピュータビジョンでは、モデルは画像分割などのタスクを効果的に実行するために画像解像度の変化に適応できなければならない。
最近の研究は、例えばウェイトシェアリングやカーネルのリサイズを通じて、スケール平等な畳み込みニューラルネットワークの開発を進展させた。
しかし、これらのネットワークは実際にはスケール不変ではない。
具体的には、継続的ドメインのダウンスケーリング操作を定式化するため、アンチエイリアシングを考慮しない。
この欠点に対処するため、アンチエイリアスを考慮した離散領域でのダウンスケーリングを直接定式化する。
次に,真にスケール等価なディープネット,すなわち絶対零等分散誤差を達成するために,フーリエ層に基づく新しいアーキテクチャを提案する。
先行研究の後、mnistスケールとstl-10データセットでこのモデルをテストした。
提案モデルでは, 等値誤差をゼロに抑えながら, 競合する分類性能を実現する。
関連論文リスト
- Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - Neural Fields with Thermal Activations for Arbitrary-Scale Super-Resolution [56.089473862929886]
本稿では,適応型ガウスPSFを用いて点を問合せできる新しい設計手法を提案する。
理論的に保証されたアンチエイリアスにより、任意のスケールの単一画像の超解像のための新しい手法が確立される。
論文 参考訳(メタデータ) (2023-11-29T14:01:28Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - DISCO: accurate Discrete Scale Convolutions [2.1485350418225244]
スケールは、多くのビジョンタスクにおいて与えられた、乱雑な要因と見なされることが多い。そうすると、学習中により多くのデータを必要とする要因の1つである。
我々は,スケールの粒度とフィルタサイズが小さい問題に適用可能な,高精度なスケール等価畳み込みニューラルネットワーク(SE-CNN)を提案する。
論文 参考訳(メタデータ) (2021-06-04T21:48:09Z) - Noise-Equipped Convolutional Neural Networks [15.297063646935078]
Convolutional Neural Network (CNN)は、画像合成および翻訳タスクに広く採用されています。
CNNモデルにフラットな入力が与えられると、畳み込みカーネルの空間的共有性により、変換はスケール操作に分解される。
論文 参考訳(メタデータ) (2020-12-09T09:01:45Z) - What Does CNN Shift Invariance Look Like? A Visualization Study [87.79405274610681]
畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
論文 参考訳(メタデータ) (2020-11-09T01:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。