論文の概要: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2311.09245v2
- Date: Fri, 11 Apr 2025 21:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-26 08:03:47.935957
- Title: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- Title(参考訳): 連続ドメイン畳み込みニューラルネットワークにおけるアフィン不変性
- Authors: Ali Mohaddes, Johannes Lederer,
- Abstract要約: グループ不変性は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
私たちの研究は最終的には、通常のディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
- 参考スコア(独自算出の注目度): 5.095097384893417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of group invariance helps neural networks in recognizing patterns and features under geometric transformations. Group convolutional neural networks enhance traditional convolutional neural networks by incorporating group-based geometric structures into their design. This research studies affine invariance on continuous-domain convolutional neural networks. Despite other research considering isometric invariance or similarity invariance, we focus on the full structure of affine transforms generated by the group of all invertible $2 \times 2$ real matrices (generalized linear group $\mathrm{GL}_2(\mathbb{R})$). We introduce a new criterion to assess the invariance of two signals under affine transformations. The input image is embedded into the affine Lie group $G_2 = \mathbb{R}^2 \ltimes \mathrm{GL}_2(\mathbb{R})$ to facilitate group convolution operations that respect affine invariance. Then, we analyze the convolution of embedded signals over $G_2$. In sum, our research could eventually extend the scope of geometrical transformations that usual deep-learning pipelines can handle.
- Abstract(参考訳): 群不変性の概念は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
グループ畳み込みニューラルネットワークは、グループベースの幾何学構造を設計に組み込むことで、伝統的な畳み込みニューラルネットワークを強化する。
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
等方的不変性や類似性不変性を考える他の研究にもかかわらず、すべての可逆2$実行列(一般化線型群 $\mathrm{GL}_2(\mathbb{R})$)の群によって生成されるアフィン変換の全構造に焦点を当てる。
アフィン変換の下での2つの信号の不変性を評価するための新しい基準を導入する。
入力画像は、アフィン不変性を尊重する群畳み込み操作を容易にするために、アフィンリー群 $G_2 = \mathbb{R}^2 \ltimes \mathrm{GL}_2(\mathbb{R})$ に埋め込まれる。
次に、埋め込み信号の畳み込みを$G_2$で解析する。
まとめると、私たちの研究は最終的に、通常のディープラーニングパイプラインが扱える幾何学的変換の範囲を広げる可能性がある。
関連論文リスト
- Recursive Self-Similarity in Deep Weight Spaces of Neural Architectures: A Fractal and Coarse Geometry Perspective [2.9130383514140292]
本稿では,Deep Weight Spacesを,離散整数スケールで観測可能な階層的,フラクタル的,粗い幾何学構造として概念化する。
我々は、フラクタル変換と呼ばれる粗い群作用、$T_r_k $を導入し、対称性群 $G = (mathbbZ, +) $ の下で作用する。
この観点は、一般に物理的構造の階層的およびスケール関連幾何学を評価するために使用されるボックスカウント技術を採用する。
論文 参考訳(メタデータ) (2025-03-18T14:41:23Z) - Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Implicit Convolutional Kernels for Steerable CNNs [5.141137421503899]
ステアブル畳み込みニューラルネットワーク(CNN)は、原点保存グループ$G$の翻訳と変換に等しいニューラルネットワークを構築するための一般的なフレームワークを提供する。
本稿では,多層パーセプトロン(MLP)による暗黙的ニューラル表現を用いて,$G$-steerableカーネルのパラメータ化を提案する。
我々は,N体シミュレーション,点雲分類,分子特性予測など,複数のタスクにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-12T18:10:33Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Universality of group convolutional neural networks based on ridgelet
analysis on groups [10.05944106581306]
グループ畳み込みニューラルネットワーク(GCNN)のリッジレット理論に基づく近似特性について検討する。
群表現間の非線形写像として多目的GCNNを定式化する。
論文 参考訳(メタデータ) (2022-05-30T02:52:22Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - Equivariant neural networks for inverse problems [1.7942265700058986]
群同変畳み込み演算は自然に学習された再構成法に組み込むことができることを示す。
近位作用素を群等価畳み込みニューラルネットワークとしてモデル化する学習反復手法を設計した。
論文 参考訳(メタデータ) (2021-02-23T05:38:41Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。