論文の概要: AdS-GNN -- a Conformally Equivariant Graph Neural Network
- arxiv url: http://arxiv.org/abs/2505.12880v1
- Date: Mon, 19 May 2025 09:08:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.505082
- Title: AdS-GNN -- a Conformally Equivariant Graph Neural Network
- Title(参考訳): AdS-GNN - 同値なグラフニューラルネットワーク
- Authors: Maksim Zhdanov, Nabil Iqbal, Erik Bekkers, Patrick Forré,
- Abstract要約: 一般の共形変換の下で同変のニューラルネットワークを構築する。
コンピュータビジョンと統計物理学のタスクのモデルを検証する。
- 参考スコア(独自算出の注目度): 9.96018310438305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal symmetries, i.e.\ coordinate transformations that preserve angles, play a key role in many fields, including physics, mathematics, computer vision and (geometric) machine learning. Here we build a neural network that is equivariant under general conformal transformations. To achieve this, we lift data from flat Euclidean space to Anti de Sitter (AdS) space. This allows us to exploit a known correspondence between conformal transformations of flat space and isometric transformations on the AdS space. We then build upon the fact that such isometric transformations have been extensively studied on general geometries in the geometric deep learning literature. We employ message-passing layers conditioned on the proper distance, yielding a computationally efficient framework. We validate our model on tasks from computer vision and statistical physics, demonstrating strong performance, improved generalization capacities, and the ability to extract conformal data such as scaling dimensions from the trained network.
- Abstract(参考訳): 等角対称性、すなわち角度を保存する座標変換は、物理学、数学、コンピュータビジョン、(幾何学)機械学習など、多くの分野で重要な役割を果たしている。
ここでは、一般的な共形変換の下で同変するニューラルネットワークを構築する。
これを実現するために、平面ユークリッド空間からAnti de Sitter (AdS)空間にデータを持ち上げる。
これにより、平坦空間の共形変換とAdS空間上の等長変換との既知の対応を利用することができる。
そして、幾何学的深層学習文学における一般測地学において、そのような等長変換が広範に研究されているという事実の上に構築する。
我々は、適切な距離で条件付きメッセージパッシング層を採用し、計算効率の良いフレームワークを提供する。
我々は,コンピュータビジョンと統計物理学のタスクにおけるモデルの有効性を検証し,性能の向上,一般化能力の向上,トレーニングネットワークからのスケーリング次元などのコンフォメーションデータを抽出する能力について検証した。
関連論文リスト
- Geometry-Informed Neural Operator Transformer [0.8906214436849201]
この研究はGeometry-Informed Neural Operator Transformer (GINOT)を導入し、任意のジオメトリの前方予測を可能にするために、トランスフォーマーアーキテクチャとニューラルオペレータフレームワークを統合する。
GINOTの性能は複数の挑戦的なデータセットで検証され、複雑で任意の2Dおよび3Dジオメトリに対して高い精度と強力な一般化能力を示す。
論文 参考訳(メタデータ) (2025-04-28T03:39:27Z) - Current Symmetry Group Equivariant Convolution Frameworks for Representation Learning [5.802794302956837]
ユークリッドの深層学習はしばしば、表現空間が不規則で複雑な位相で湾曲した実世界の信号に対処するのに不十分である。
我々は、対称性群同変深層学習モデルの重要性と、グラフや3次元形状、非ユークリッド空間における畳み込みのような操作の実現に焦点を当てる。
論文 参考訳(メタデータ) (2024-09-11T15:07:18Z) - Neural Isometries: Taming Transformations for Equivariant ML [8.203292895010748]
本稿では,観測空間を汎用潜在空間にマップする方法を学習する自動エンコーダフレームワークであるNeural Isometriesを紹介する。
トレーニング済みの潜伏空間で動作する単純なオフ・ザ・シェルフ同変ネットワークは、巧妙に設計された手作りのネットワークと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-05-29T17:24:25Z) - GTA: A Geometry-Aware Attention Mechanism for Multi-View Transformers [63.41460219156508]
既存の位置符号化方式は3次元視覚タスクに最適であると主張する。
トークンの幾何学的構造を相対変換として符号化する幾何学的注意機構を提案する。
我々は、Geometric Transform Attention (GTA) と呼ばれる、最先端のトランスフォーマーベースNVSモデルの学習効率と性能を向上させることに留意している。
論文 参考訳(メタデータ) (2023-10-16T13:16:09Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。