論文の概要: Grounding Continuous Representations in Geometry: Equivariant Neural Fields
- arxiv url: http://arxiv.org/abs/2406.05753v4
- Date: Fri, 04 Oct 2024 15:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:08:23.826523
- Title: Grounding Continuous Representations in Geometry: Equivariant Neural Fields
- Title(参考訳): 幾何学における接地連続表現:等変ニューラル場
- Authors: David R Wessels, David M Knigge, Samuele Papa, Riccardo Valperga, Sharvaree Vadgama, Efstratios Gavves, Erik J Bekkers,
- Abstract要約: そこで我々は,幾何インフォームド・クロスアテンションを用いた新しいCNFアーキテクチャを提案する。
このアプローチは、フィールドと潜伏剤の両方を幾何学的にグラウンド化することによって、ステアビリティ特性を誘導することを示す。
分類,セグメンテーション,予測,再構築など,様々なタスクにおいて,これらの主な特性を検証する。
- 参考スコア(独自算出の注目度): 26.567143650213225
- License:
- Abstract: Conditional Neural Fields (CNFs) are increasingly being leveraged as continuous signal representations, by associating each data-sample with a latent variable that conditions a shared backbone Neural Field (NeF) to reconstruct the sample. However, existing CNF architectures face limitations when using this latent downstream in tasks requiring fine grained geometric reasoning, such as classification and segmentation. We posit that this results from lack of explicit modelling of geometric information (e.g. locality in the signal or the orientation of a feature) in the latent space of CNFs. As such, we propose Equivariant Neural Fields (ENFs), a novel CNF architecture which uses a geometry-informed cross-attention to condition the NeF on a geometric variable, a latent point cloud of features, that enables an equivariant decoding from latent to field. We show that this approach induces a steerability property by which both field and latent are grounded in geometry and amenable to transformation laws: if the field transforms, the latent representation transforms accordingly - and vice versa. Crucially, this equivariance relation ensures that the latent is capable of (1) representing geometric patterns faitfhully, allowing for geometric reasoning in latent space, (2) weight-sharing over similar local patterns, allowing for efficient learning of datasets of fields. We validate these main properties in a range of tasks including classification, segmentation, forecasting and reconstruction, showing clear improvement over baselines with a geometry-free latent space.
- Abstract(参考訳): 条件付きニューラルフィールド(CNF)は、サンプルを再構成するために共有バックボーンニューラルフィールド(NeF)を条件とする潜時変数と各データサンプルを関連付けることで、連続的な信号表現としてますます活用されている。
しかし、既存のCNFアーキテクチャは、分類やセグメンテーションのようなきめ細かい幾何学的推論を必要とするタスクにおいて、この潜時的な下流を使用する際に制限に直面している。
これは、CNFsの潜在空間における幾何情報(例えば信号の局所性や特徴の向き)の明示的なモデリングが欠如していることから生じると仮定する。
そこで我々は、幾何学的変数にNeFを条件付けるために幾何学的インフォームド・クロスアテンションを用いた新しいCNFアーキテクチャであるEquivariant Neural Fields (ENFs)を提案する。
このアプローチは、場と潜伏表現の両方が幾何学的に基底を置き、変換法則(場が変換された場合、潜伏表現はそれに従って変換され、逆もまた可能)を導出するステアビリティ特性を誘導することを示す。
重要な点として、この等式関係は、(1)被写体が幾何学的パターンをファイトフリーに表現し、被写体空間における幾何学的推論を可能にし、(2)類似した局所的なパターンを重み分けし、フィールドのデータセットの効率的な学習を可能にすることを保証している。
分類,セグメンテーション,予測,再構成などのタスクにおいて,これらの主な特性を検証し,幾何学的自由な潜在空間を持つベースラインよりも明確な改善を示す。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Shape-informed surrogate models based on signed distance function domain encoding [8.052704959617207]
パラメータ化偏微分方程式(PDE)の解を近似する代理モデルを構築するための非侵入的手法を提案する。
我々のアプローチは2つのニューラルネットワーク(NN)の組み合わせに基づいている。
論文 参考訳(メタデータ) (2024-09-19T01:47:04Z) - Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Topological Obstructions and How to Avoid Them [22.45861345237023]
局所最適性は特異点や不正確な次数や巻数によって生じる可能性があることを示す。
本稿では,データポイントを幾何学空間上のマルチモーダル分布にマッピングするフローベースモデルを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:56:14Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Relative representations enable zero-shot latent space communication [19.144630518400604]
ニューラルネットワークは、高次元空間に横たわるデータ多様体の幾何学的構造を潜在表現に埋め込む。
ニューラルネットワークがこれらの相対表現をどのように活用して、実際に潜時等尺不変性を保証するかを示す。
論文 参考訳(メタデータ) (2022-09-30T12:37:03Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - Geometric Scattering on Measure Spaces [12.0756034112778]
測度空間上での幾何散乱の一般統一モデルを導入する。
未知多様体をランダムにサンプリングして得られる有限測度空間を考える。
本稿では, 関連するグラフ散乱変換が基礎多様体上の散乱変換を近似するデータ駆動グラフを構築するための2つの方法を提案する。
論文 参考訳(メタデータ) (2022-08-17T22:40:09Z) - Representing Deep Neural Networks Latent Space Geometries with Graphs [38.63434325489782]
ディープラーニング(DL)は多くの機械学習タスクで最先端のパフォーマンスに到達する能力に多くの注目を集めている。
本研究は, 様々な問題に対処するために, これらの潜在測地に関する制約を導入することが可能であることを示す。
論文 参考訳(メタデータ) (2020-11-14T17:21:29Z) - Geodesics in fibered latent spaces: A geometric approach to learning
correspondences between conditions [62.997667081978825]
この研究は、異なる条件のサンプル間の対応を作成するための幾何学的枠組みと新しいネットワークアーキテクチャを導入する。
この形式の下では、潜伏空間は、条件を符号化する基底空間に成層化されたファイバー束であり、条件の変動を符号化するファイバー空間である。
論文 参考訳(メタデータ) (2020-05-16T03:14:52Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。