論文の概要: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2311.09245v2
- Date: Fri, 11 Apr 2025 21:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:46:41.113070
- Title: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- Title(参考訳): 連続ドメイン畳み込みニューラルネットワークにおけるアフィン不変性
- Authors: Ali Mohaddes, Johannes Lederer,
- Abstract要約: グループ不変性は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
私たちの研究は最終的には、通常のディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
- 参考スコア(独自算出の注目度): 5.095097384893417
- License:
- Abstract: The notion of group invariance helps neural networks in recognizing patterns and features under geometric transformations. Group convolutional neural networks enhance traditional convolutional neural networks by incorporating group-based geometric structures into their design. This research studies affine invariance on continuous-domain convolutional neural networks. Despite other research considering isometric invariance or similarity invariance, we focus on the full structure of affine transforms generated by the group of all invertible $2 \times 2$ real matrices (generalized linear group $\mathrm{GL}_2(\mathbb{R})$). We introduce a new criterion to assess the invariance of two signals under affine transformations. The input image is embedded into the affine Lie group $G_2 = \mathbb{R}^2 \ltimes \mathrm{GL}_2(\mathbb{R})$ to facilitate group convolution operations that respect affine invariance. Then, we analyze the convolution of embedded signals over $G_2$. In sum, our research could eventually extend the scope of geometrical transformations that usual deep-learning pipelines can handle.
- Abstract(参考訳): 群不変性の概念は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
グループ畳み込みニューラルネットワークは、グループベースの幾何学構造を設計に組み込むことで、伝統的な畳み込みニューラルネットワークを強化する。
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
等方的不変性や類似性不変性を考える他の研究にもかかわらず、すべての可逆2$実行列(一般化線型群 $\mathrm{GL}_2(\mathbb{R})$)の群によって生成されるアフィン変換の全構造に焦点を当てる。
アフィン変換の下での2つの信号の不変性を評価するための新しい基準を導入する。
入力画像は、アフィン不変性を尊重する群畳み込み操作を容易にするために、アフィンリー群 $G_2 = \mathbb{R}^2 \ltimes \mathrm{GL}_2(\mathbb{R})$ に埋め込まれる。
次に、埋め込み信号の畳み込みを$G_2$で解析する。
まとめると、私たちの研究は最終的に、通常のディープラーニングパイプラインが扱える幾何学的変換の範囲を広げる可能性がある。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Equivariant neural networks for inverse problems [1.7942265700058986]
群同変畳み込み演算は自然に学習された再構成法に組み込むことができることを示す。
近位作用素を群等価畳み込みニューラルネットワークとしてモデル化する学習反復手法を設計した。
論文 参考訳(メタデータ) (2021-02-23T05:38:41Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。