論文の概要: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2311.09245v1
- Date: Mon, 13 Nov 2023 14:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 18:34:52.770973
- Title: Affine Invariance in Continuous-Domain Convolutional Neural Networks
- Title(参考訳): 連続ドメイン畳み込みニューラルネットワークにおけるアフィン不変性
- Authors: Ali Mohaddes, Johannes Lederer
- Abstract要約: 本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
アフィン変換における2つの入力信号の類似性を評価するための新しい基準を導入する。
私たちの研究は最終的には、実用的なディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
- 参考スコア(独自算出の注目度): 6.019182604573028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of group invariance helps neural networks in recognizing patterns
and features under geometric transformations. Indeed, it has been shown that
group invariance can largely improve deep learning performances in practice,
where such transformations are very common. This research studies affine
invariance on continuous-domain convolutional neural networks. Despite other
research considering isometric invariance or similarity invariance, we focus on
the full structure of affine transforms generated by the generalized linear
group $\mathrm{GL}_2(\mathbb{R})$. We introduce a new criterion to assess the
similarity of two input signals under affine transformations. Then, unlike
conventional methods that involve solving complex optimization problems on the
Lie group $G_2$, we analyze the convolution of lifted signals and compute the
corresponding integration over $G_2$. In sum, our research could eventually
extend the scope of geometrical transformations that practical deep-learning
pipelines can handle.
- Abstract(参考訳): 群不変性の概念は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
実際、グループ不変性は、そのような変換が非常に一般的なディープラーニングのパフォーマンスを大幅に改善できることが示されている。
本研究では,連続領域畳み込みニューラルネットワークのアフィン不変性について研究する。
等方的不変性や類似性不変性を考える他の研究にもかかわらず、一般化線型群 $\mathrm{GL}_2(\mathbb{R})$ によって生成されるアフィン変換の全構造に焦点を当てる。
アフィン変換における2つの入力信号の類似性を評価するための新しい基準を導入する。
このとき、リー群$G_2$の複素最適化問題を解く従来の方法とは異なり、持ち上げられた信号の畳み込みを分析し、対応する積分を$G_2$で計算する。
私たちの研究は最終的に、実用的なディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Equivariant neural networks for inverse problems [1.7942265700058986]
群同変畳み込み演算は自然に学習された再構成法に組み込むことができることを示す。
近位作用素を群等価畳み込みニューラルネットワークとしてモデル化する学習反復手法を設計した。
論文 参考訳(メタデータ) (2021-02-23T05:38:41Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。