論文の概要: Equivariant Geometric Scattering Networks via Vector Diffusion Wavelets
- arxiv url: http://arxiv.org/abs/2510.01022v1
- Date: Wed, 01 Oct 2025 15:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.641592
- Title: Equivariant Geometric Scattering Networks via Vector Diffusion Wavelets
- Title(参考訳): ベクトル拡散ウェーブレットによる等変幾何学散乱ネットワーク
- Authors: David R. Johnson, Rishabh Anand, Smita Krishnaswamy, Michael Perlmutter,
- Abstract要約: 本稿では,スカラーおよびベクトルノード特徴を含む幾何グラフに対する幾何散乱変換の新たなバージョンを提案する。
我々は、同変散乱に基づくGNNが、パラメータカウントのごく一部で、他の同変メッセージパスベースのGNNと同等の性能を達成することを実証的に示す。
- 参考スコア(独自算出の注目度): 6.243468206645794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel version of the geometric scattering transform for geometric graphs containing scalar and vector node features. This new scattering transform has desirable symmetries with respect to rigid-body roto-translations (i.e., $SE(3)$-equivariance) and may be incorporated into a geometric GNN framework. We empirically show that our equivariant scattering-based GNN achieves comparable performance to other equivariant message-passing-based GNNs at a fraction of the parameter count.
- Abstract(参考訳): 本稿では,スカラーおよびベクトルノード特徴を含む幾何グラフに対する幾何散乱変換の新たなバージョンを提案する。
この新しい散乱変換は、剛体ロト変換(例えば$SE(3)$-equivariance)に関して望ましい対称性を持ち、幾何学的なGNNフレームワークに組み込むことができる。
我々は、同変散乱に基づくGNNが、パラメータカウントのごく一部で、他の同変メッセージパスベースのGNNと同等の性能を達成することを実証的に示す。
関連論文リスト
- GLGENN: A Novel Parameter-Light Equivariant Neural Networks Architecture Based on Clifford Geometric Algebras [0.0]
一般化リプシッツ群同変ニューラルネットワーク(GLGENN)という,幾何代数に基づく同変ニューラルネットワークの新しいアーキテクチャを提案し,実装し,比較する。
これらのネットワークは、任意の非退化あるいは対称双線型形式を持つベクトル空間の回転や反射を含むすべての擬直交変換に同値である。
論文 参考訳(メタデータ) (2025-06-11T11:32:51Z) - Geometrical aspects of lattice gauge equivariant convolutional neural
networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークの枠組みである。
論文 参考訳(メタデータ) (2023-03-20T20:49:08Z) - Geometric Scattering on Measure Spaces [15.819230791757906]
測度空間上での幾何散乱の一般統一モデルを導入する。
未知多様体をランダムにサンプリングして得られる有限測度空間を考える。
本稿では, 関連するグラフ散乱変換が基礎多様体上の散乱変換を近似するデータ駆動グラフを構築するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-08-17T22:40:09Z) - 3D Equivariant Graph Implicit Functions [51.5559264447605]
局所的詳細のモデリングを容易にする同変層を持つグラフ暗黙関数の新しいファミリを導入する。
提案手法は,ShapeNet再構成作業において既存の回転同変暗黙関数を0.69から0.89に改善する。
論文 参考訳(メタデータ) (2022-03-31T16:51:25Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z) - Geometric Wavelet Scattering Networks on Compact Riemannian Manifolds [9.341436585977913]
ユークリッド散乱変換と同様に、幾何学的散乱変換はウェーブレットフィルタのカスケードとポイントワイド非線形性に基づいている。
経験的結果は幾何的学習課題にその有用性を示す。
論文 参考訳(メタデータ) (2019-05-24T21:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。