論文の概要: Neural Spacetimes for DAG Representation Learning
- arxiv url: http://arxiv.org/abs/2408.13885v1
- Date: Sun, 25 Aug 2024 16:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 15:42:00.351713
- Title: Neural Spacetimes for DAG Representation Learning
- Title(参考訳): DAG表現学習のためのニューラル時空
- Authors: Haitz Sáez de Ocáriz Borde, Anastasis Kratsios, Marc T. Law, Xiaowen Dong, Michael Bronstein,
- Abstract要約: 我々はニューラル時空と呼ばれる訓練可能な深層学習型ジオメトリのクラスを提案する。
グラフエッジの重みとその空間次元と因果関係を、その時間次元におけるエッジ方向の形でエンコードする。
我々の理論的な保証は普遍埋め込み定理であり、任意の$k$-point DAGを1+mathcalO(log(k))$歪みを持つNSTに埋め込むことができることを示す。
- 参考スコア(独自算出の注目度): 23.54420278189682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a class of trainable deep learning-based geometries called Neural Spacetimes (NSTs), which can universally represent nodes in weighted directed acyclic graphs (DAGs) as events in a spacetime manifold. While most works in the literature focus on undirected graph representation learning or causality embedding separately, our differentiable geometry can encode both graph edge weights in its spatial dimensions and causality in the form of edge directionality in its temporal dimensions. We use a product manifold that combines a quasi-metric (for space) and a partial order (for time). NSTs are implemented as three neural networks trained in an end-to-end manner: an embedding network, which learns to optimize the location of nodes as events in the spacetime manifold, and two other networks that optimize the space and time geometries in parallel, which we call a neural (quasi-)metric and a neural partial order, respectively. The latter two networks leverage recent ideas at the intersection of fractal geometry and deep learning to shape the geometry of the representation space in a data-driven fashion, unlike other works in the literature that use fixed spacetime manifolds such as Minkowski space or De Sitter space to embed DAGs. Our main theoretical guarantee is a universal embedding theorem, showing that any $k$-point DAG can be embedded into an NST with $1+\mathcal{O}(\log(k))$ distortion while exactly preserving its causal structure. The total number of parameters defining the NST is sub-cubic in $k$ and linear in the width of the DAG. If the DAG has a planar Hasse diagram, this is improved to $\mathcal{O}(\log(k)) + 2)$ spatial and 2 temporal dimensions. We validate our framework computationally with synthetic weighted DAGs and real-world network embeddings; in both cases, the NSTs achieve lower embedding distortions than their counterparts using fixed spacetime geometries.
- Abstract(参考訳): 我々は,重み付き有向非巡回グラフ(DAG)のノードを時空多様体のイベントとして普遍的に表現できる,ニューラル時空(NST)と呼ばれる訓練可能な深層学習型ジオメトリのクラスを提案する。
文献におけるほとんどの研究は、非方向グラフ表現学習や因果関係を別々に埋め込むことに重点を置いているが、我々の微分可能な幾何学は、その空間次元におけるグラフエッジ重みと時間次元におけるエッジ方向の形の因果関係の両方を符号化することができる。
我々は、擬距離(空間)と部分順序(時間)を組み合わせた積多様体を用いる。
NSTは、時空多様体内のイベントとしてノードの位置を最適化することを学習する埋め込みネットワークと、それぞれにニューラル(準)メトリックとニューラル部分順序と呼ばれる空間と時間ジオメトリを並列に最適化する2つの他のネットワークの3つのニューラルネットワークとして実装されている。
後者の2つのネットワークは、ミンコフスキー空間やデ・シッター空間のような固定時空多様体を使ってDAGを埋め込む文献とは異なり、フラクタル幾何学と深層学習の交差点における最近のアイデアを活用して、データ駆動方式で表現空間の幾何学を形作る。
我々の主要な理論的保証は普遍埋め込み定理であり、任意の$k$-point DAGを1+\mathcal{O}(\log(k))$歪みを持つNSTに埋め込むことができ、その因果構造を正確に保存できることを示す。
NSTを定義するパラメータの総数は$k$でサブキュビックであり、DAGの幅では線形である。
DAG が平面ハセ図形を持つならば、これは $\mathcal{O}(\log(k)) + 2)$空間と2つの時間次元に改善される。
我々は、合成重み付きDAGと実世界のネットワーク埋め込みを用いて、我々のフレームワークを計算的に検証し、両方の場合において、NSTは、固定時空測地を用いて、それらのフレームワークよりも低い埋め込み歪みを達成する。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Online Algorithm for Node Feature Forecasting in Temporal Graphs [12.667148739430798]
本稿では,時間グラフのノード特徴を予測するためのオンラインmspaceを提案する。
mspaceは最先端技術と同等に動作し、いくつかのデータセットでそれらを上回ります。
また,ノード特徴予測手法の評価を支援するために,合成データセットを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T07:31:51Z) - Mending of Spatio-Temporal Dependencies in Block Adjacency Matrix [3.529869282529924]
本稿では,時間的依存を考慮に入れた新たなエンドツーエンド学習アーキテクチャを提案する。
提案手法は,SurgVisDomやC2D2などのベンチマークデータセット上での優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-04T06:42:33Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - Laplacian2Mesh: Laplacian-Based Mesh Understanding [4.808061174740482]
我々は3次元トライアングルメッシュのための新しいフレキシブル畳み込みニューラルネットワーク(CNN)モデルであるLaplacian2Meshを紹介した。
メッシュプーリングはラプラシアンの多空間変換によりネットワークの受容場を拡張するために適用される。
3Dメッシュに適用されたさまざまな学習タスクの実験は、Laplacian2Meshの有効性と効率を実証している。
論文 参考訳(メタデータ) (2022-02-01T10:10:13Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。