論文の概要: Coordinate Independent Convolutional Networks -- Isometry and Gauge
Equivariant Convolutions on Riemannian Manifolds
- arxiv url: http://arxiv.org/abs/2106.06020v1
- Date: Thu, 10 Jun 2021 19:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 07:02:08.411651
- Title: Coordinate Independent Convolutional Networks -- Isometry and Gauge
Equivariant Convolutions on Riemannian Manifolds
- Title(参考訳): 座標独立畳み込みネットワーク -- リーマン多様体上の等長およびゲージ同変畳み込み
- Authors: Maurice Weiler, Patrick Forr\'e, Erik Verlinde, Max Welling
- Abstract要約: 平坦空間と比較して大きな複雑さは、コンボリューション核が多様体にどのようなアライメントを適用するべきかが不明確であることである。
コーディネート化の特定の選択は、ネットワークの推論に影響を与えるべきではない、と我々は主張する。
座標独立と重み共有の同時要求は、ネットワーク上の同変要求をもたらす。
- 参考スコア(独自算出の注目度): 70.32518963244466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by the vast success of deep convolutional networks, there is a
great interest in generalizing convolutions to non-Euclidean manifolds. A major
complication in comparison to flat spaces is that it is unclear in which
alignment a convolution kernel should be applied on a manifold. The underlying
reason for this ambiguity is that general manifolds do not come with a
canonical choice of reference frames (gauge). Kernels and features therefore
have to be expressed relative to arbitrary coordinates. We argue that the
particular choice of coordinatization should not affect a network's inference
-- it should be coordinate independent. A simultaneous demand for coordinate
independence and weight sharing is shown to result in a requirement on the
network to be equivariant under local gauge transformations (changes of local
reference frames). The ambiguity of reference frames depends thereby on the
G-structure of the manifold, such that the necessary level of gauge
equivariance is prescribed by the corresponding structure group G. Coordinate
independent convolutions are proven to be equivariant w.r.t. those isometries
that are symmetries of the G-structure. The resulting theory is formulated in a
coordinate free fashion in terms of fiber bundles. To exemplify the design of
coordinate independent convolutions, we implement a convolutional network on
the M\"obius strip. The generality of our differential geometric formulation of
convolutional networks is demonstrated by an extensive literature review which
explains a large number of Euclidean CNNs, spherical CNNs and CNNs on general
surfaces as specific instances of coordinate independent convolutions.
- Abstract(参考訳): 深い畳み込みネットワークの大きな成功により、非ユークリッド多様体への畳み込みの一般化に大きな関心がある。
平坦空間に対する大きな複雑度は、畳み込み核が多様体上でどのアライメントを適用するべきかが明らかでないことである。
この曖昧さの根底にある理由は、一般多様体が参照フレーム(ゲージ)の正準選択を伴わないことである。
したがって、カーネルと特徴は任意の座標に対して表現されなければならない。
コーディネート化の特定の選択は、ネットワークの推論に影響を与えるべきではない、と我々は主張する。
座標独立性と重み共有の同時要求は、ネットワークが局所ゲージ変換(局所参照フレームの変更)の下で同変であることを要求することが示される。
したがって、参照フレームの曖昧性は多様体の g-構造に依存するので、対応する構造群 g によりゲージ同値の必要レベルが規定される。
これらのアイソメトリーはG構造の対称性である。
得られた理論はファイバー束の項で座標自由な方法で定式化される。
座標独立畳み込みの設計を例示するために, m\"obius strip 上の畳み込みネットワークを実装した。
畳み込みネットワークの微分幾何学的定式化の一般性は、座標独立畳み込みの特定の例として、一般曲面上の多くのユークリッド cnn,球面 cnn, cnn を説明する広範な文献レビューによって証明される。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Metric Convolutions: A Unifying Theory to Adaptive Convolutions [3.481985817302898]
メトリック畳み込みは、画像処理とディープラーニングにおける標準的な畳み込みを置き換える。
パラメータを少なくし、より良い一般化を提供する。
提案手法は,標準的な分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2024-06-08T08:41:12Z) - Tensor Frames -- How To Make Any Message Passing Network Equivariant [15.687514300950813]
等価なメッセージパッシングアーキテクチャを構築するための新しいフレームワークを提案する。
我々は、点雲上の通常のベクトル回帰について、最先端の結果を生成する。
論文 参考訳(メタデータ) (2024-05-24T09:41:06Z) - A Characterization Theorem for Equivariant Networks with Point-wise
Activations [13.00676132572457]
回転同変ネットワークは、連結コンパクト群に対して同変である任意のネットワークに対してのみ不変であることを示す。
本稿では, 畳み込み可能な畳み込み型ニューラルネットワークの特徴空間が, 自明な表現であることを示す。
論文 参考訳(メタデータ) (2024-01-17T14:30:46Z) - A Geometric Insight into Equivariant Message Passing Neural Networks on
Riemannian Manifolds [1.0878040851638]
座標独立な特徴体に付随する計量は、主バンドルの原計量を最適に保存すべきである。
一定の時間ステップで拡散方程式の流れを離散化することにより, 多様体上のメッセージパッシング方式を得る。
グラフ上の高次拡散過程の離散化は、同変 GNN の新しい一般クラスをもたらす。
論文 参考訳(メタデータ) (2023-10-16T14:31:13Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。