論文の概要: Learnable Gabor modulated complex-valued networks for orientation
robustness
- arxiv url: http://arxiv.org/abs/2011.11734v2
- Date: Tue, 5 Oct 2021 18:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:37:31.653262
- Title: Learnable Gabor modulated complex-valued networks for orientation
robustness
- Title(参考訳): 学習可能なgabor変調複素値ネットワークによる配向ロバスト性
- Authors: Felix Richards, Adeline Paiement, Xianghua Xie, Elisabeth Sola,
Pierre-Alain Duc
- Abstract要約: 学習可能な Gabor Convolutional Networks (LGCNs) はパラメータ効率が良く、モデルの複雑さが増す。
複雑な値を持つ畳み込み重みの束縛性について,学習したガボルフィルタを用いて検討し,配向変換を実現する。
- 参考スコア(独自算出の注目度): 4.024850952459758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness to transformation is desirable in many computer vision tasks,
given that input data often exhibits pose variance. While translation
invariance and equivariance is a documented phenomenon of CNNs, sensitivity to
other transformations is typically encouraged through data augmentation. We
investigate the modulation of complex valued convolutional weights with learned
Gabor filters to enable orientation robustness. The resulting network can
generate orientation dependent features free of interpolation with a single set
of learnable rotation-governing parameters. By choosing to either retain or
pool orientation channels, the choice of equivariance versus invariance can be
directly controlled. Moreover, we introduce rotational weight-tying through a
proposed cyclic Gabor convolution, further enabling generalisation over
rotations. We combine these innovations into Learnable Gabor Convolutional
Networks (LGCNs), that are parameter-efficient and offer increased model
complexity. We demonstrate their rotation invariance and equivariance on MNIST,
BSD and a dataset of simulated and real astronomical images of Galactic cirri.
- Abstract(参考訳): 入力データがポーズ分散を示すことが多いため、多くのコンピュータビジョンタスクでは変換に対する堅牢性が望ましい。
翻訳不変性と等価性はcnnの文書化現象であるが、他の変換に対する感度はデータ拡張によって奨励される。
複雑な値を持つ畳み込み重みのガボルフィルタによる変調について検討し、配向ロバスト性を実現する。
得られたネットワークは、学習可能な回転オーバニングパラメータの単一セットで補間のない配向依存特徴を生成することができる。
保持チャネルまたはプール配向チャネルを選択することにより、等分散対不変性の選択を直接制御できる。
さらに,提案したサイクリックガボル畳み込みによる回転重み付けを導入し,回転の一般化を可能にする。
これらのイノベーションを、パラメータ効率が高く、モデルの複雑さを増大させるLearnerable Gabor Convolutional Networks(LGCNs)に組み合わせる。
mnist,bsdの回転不変性と等分散を実証し,銀河系cirriのシミュレーションおよび実天体画像のデータセットを示す。
関連論文リスト
- Harmformer: Harmonic Networks Meet Transformers for Continuous Roto-Translation Equivariance [2.5864824580604515]
CNNは画像翻訳と本質的に同値であり、効率的なパラメータとデータ利用、学習の高速化、堅牢性の向上につながっている。
変換同変ネットワークの概念は、離散回転群に対する群畳み込みと360円の連続回転群に対する調和関数を用いて回転変換に拡張された。
本稿では, コンボリューションステムを持つ調和変換器であるHarmformerを紹介し, 変換と連続回転の両面で等価性を実現する。
論文 参考訳(メタデータ) (2024-11-06T09:39:25Z) - Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - B-cos Alignment for Inherently Interpretable CNNs and Vision
Transformers [97.75725574963197]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
このような変換の列は、完全なモデル計算を忠実に要約する単一の線形変換を誘導することを示す。
得られた説明は視覚的品質が高く,定量的解釈可能性指標下では良好に機能することを示す。
論文 参考訳(メタデータ) (2023-06-19T12:54:28Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Orthonormal Convolutions for the Rotation Based Iterative
Gaussianization [64.44661342486434]
本稿では、画像ガウス化を可能にする回転型反復ガウス化RBIGの拡張について詳述する。
RBIGの回転は主成分分析や独立成分分析に基づくため、画像では小さな画像パッチや孤立画素に制限されている。
emphConvolutional RBIG:この問題を緩和する拡張として,RBIGの回転が畳み込みであることを示す。
論文 参考訳(メタデータ) (2022-06-08T12:56:34Z) - B-cos Networks: Alignment is All We Need for Interpretability [136.27303006772294]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
B-コス変換は、完全なモデル計算を忠実に要約する単一の線形変換を誘導する。
VGGs、ResNets、InceptionNets、DenseNetsといった一般的なモデルに簡単に統合できることを示します。
論文 参考訳(メタデータ) (2022-05-20T16:03:29Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Rotated Ring, Radial and Depth Wise Separable Radial Convolutions [13.481518628796692]
本研究では、トレーニング可能な回転不変畳み込みとネットの構築について述べる。
一方、我々のアプローチは異なるモデルと異なる公開データセットに対して回転不変であることを示す。
提示される回転適応畳み込みモデルは、通常の畳み込みモデルよりも計算集約的である。
論文 参考訳(メタデータ) (2020-10-02T09:01:51Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。