論文の概要: Moment kernels: a simple and scalable approach for equivariance to rotations and reflections in deep convolutional networks
- arxiv url: http://arxiv.org/abs/2505.21736v1
- Date: Tue, 27 May 2025 20:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.276947
- Title: Moment kernels: a simple and scalable approach for equivariance to rotations and reflections in deep convolutional networks
- Title(参考訳): モーメントカーネル:深部畳み込みネットワークにおける回転と反射に同値な単純かつスケーラブルなアプローチ
- Authors: Zachary Schlamowitz, Andrew Bennecke, Daniel J. Tward,
- Abstract要約: この同値性は、単純な畳み込みカーネルを用いて達成可能であることを示す。
標準畳み込みモジュールを用いて同変ニューラルネットワークを実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The principle of translation equivariance (if an input image is translated an output image should be translated by the same amount), led to the development of convolutional neural networks that revolutionized machine vision. Other symmetries, like rotations and reflections, play a similarly critical role, especially in biomedical image analysis, but exploiting these symmetries has not seen wide adoption. We hypothesize that this is partially due to the mathematical complexity of methods used to exploit these symmetries, which often rely on representation theory, a bespoke concept in differential geometry and group theory. In this work, we show that the same equivariance can be achieved using a simple form of convolution kernels that we call ``moment kernels,'' and prove that all equivariant kernels must take this form. These are a set of radially symmetric functions of a spatial position $x$, multiplied by powers of the components of $x$ or the identity matrix. We implement equivariant neural networks using standard convolution modules, and provide architectures to execute several biomedical image analysis tasks that depend on equivariance principles: classification (outputs are invariant under orthogonal transforms), 3D image registration (outputs transform like a vector), and cell segmentation (quadratic forms defining ellipses transform like a matrix).
- Abstract(参考訳): 変換等価性の原理(入力画像が変換された場合、出力画像は同じ量で変換される)は、機械ビジョンに革命をもたらす畳み込みニューラルネットワークの開発につながった。
回転や反射のような他の対称性は、特に生体画像解析において同様に重要な役割を果たすが、これらの対称性を活用することは広く採用されていない。
これは部分的にはこれらの対称性を利用する方法の数学的複雑さによるもので、しばしば微分幾何学や群論におけるベースモークの概念である表現論に依存している。
この研究において、同じ同値性は、'`moment kernels,' と呼ばれる単純な形の畳み込みカーネルを用いて達成でき、全ての同変カーネルがこの形式を取らなければならないことを証明できる。
これらは空間的位置 $x$ の放射対称関数の集合で、$x$ あるいは恒等行列の成分の力によって乗算される。
我々は、標準畳み込みモジュールを用いて同変ニューラルネットワークを実装し、分類(出力は直交変換の下で不変)、3次元画像登録(出力はベクトルのように変化する)、細胞セグメンテーション(行列のように楕円変換を定義する四進形式)など、等値原理に依存するいくつかの生体画像解析タスクを実行するアーキテクチャを提供する。
関連論文リスト
- Improving Equivariant Networks with Probabilistic Symmetry Breaking [9.164167226137664]
同変ネットワークは既知の対称性をニューラルネットワークにエンコードし、しばしば一般化を強化する。
これは(1)自己対称性が共通な領域での予測タスク、(2)高対称性の潜在空間から再構成するために対称性を破らなければならない生成モデルの両方に重要な問題を引き起こす。
このような分布を表すのに十分な条件を確立する新しい理論結果を示す。
論文 参考訳(メタデータ) (2025-03-27T21:04:49Z) - Group Crosscoders for Mechanistic Analysis of Symmetry [0.0]
群クロスコーダは、ニューラルネットワークの対称的特徴を体系的に発見し、分析する。
グループクロスコーダは、ニューラルネットワークが対称性を表現する方法に関する体系的な洞察を与えることができることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:47:01Z) - Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Imaging with Equivariant Deep Learning [9.333799633608345]
我々は、同変イメージングの出現する分野を概観し、それが一般化と新たなイメージングの機会をいかに向上させるかを示す。
獲得物理と集団行動の相互作用と、反復的再構成、ブラインド圧縮センシング、自己教師型学習との関連を示す。
論文 参考訳(メタデータ) (2022-09-05T02:13:57Z) - Orthonormal Convolutions for the Rotation Based Iterative
Gaussianization [64.44661342486434]
本稿では、画像ガウス化を可能にする回転型反復ガウス化RBIGの拡張について詳述する。
RBIGの回転は主成分分析や独立成分分析に基づくため、画像では小さな画像パッチや孤立画素に制限されている。
emphConvolutional RBIG:この問題を緩和する拡張として,RBIGの回転が畳み込みであることを示す。
論文 参考訳(メタデータ) (2022-06-08T12:56:34Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Learning Equivariant Representations [10.745691354609738]
畳み込みニューラルネットワーク(CNN)はこの原理の成功例である。
対称性の群で定義される異なる変換に対する同変モデルを提案する。
これらのモデルはデータの対称性を利用して、サンプルとモデルの複雑さを減らし、一般化性能を向上させる。
論文 参考訳(メタデータ) (2020-12-04T18:46:17Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。