論文の概要: Trivial bundle embeddings for learning graph representations
- arxiv url: http://arxiv.org/abs/2112.02531v1
- Date: Sun, 5 Dec 2021 10:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:03:54.405395
- Title: Trivial bundle embeddings for learning graph representations
- Title(参考訳): グラフ表現学習のための試行バンドル埋め込み
- Authors: Zheng Xie, Xiaojing Zuo, Yiping Song
- Abstract要約: 本稿では,ノード特徴の有無にかかわらず,ネットワークの帰納的ノード表現を学習する帰納的モデルを提案する。
実際には、ユークリッドや双曲GCNと比較してリンク予測とノード分類の誤差を低減する。
- 参考スコア(独自算出の注目度): 9.070194145842489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding real-world networks presents challenges because it is not clear how
to identify their latent geometries. Embedding some disassortative networks,
such as scale-free networks, to the Euclidean space has been shown to incur
distortions. Embedding scale-free networks to hyperbolic spaces offer an
exciting alternative but incurs distortions when embedding assortative networks
with latent geometries not hyperbolic. We propose an inductive model that
leverages both the expressiveness of GCNs and trivial bundle to learn inductive
node representations for networks with or without node features. A trivial
bundle is a simple case of fiber bundles,a space that is globally a product
space of its base space and fiber. The coordinates of base space and those of
fiber can be used to express the assortative and disassortative factors in
generating edges. Therefore, the model has the ability to learn embeddings that
can express those factors. In practice, it reduces errors for link prediction
and node classification when compared to the Euclidean and hyperbolic GCNs.
- Abstract(参考訳): 実世界のネットワークを組み込むことは、潜在するジオメトリの特定方法が明確ではないため、課題がある。
スケールフリーネットワークのようないくつかの異種ネットワークをユークリッド空間に埋め込むことで歪みが生じることが示されている。
スケールフリーなネットワークを双曲空間に埋め込むことは、エキサイティングな代替手段であるが、双曲的でない潜在幾何学的ネットワークを埋め込む際に歪みを引き起こす。
本稿では,GCNの表現性と自明なバンドルを併用した帰納的モデルを提案し,ノード特徴の有無に関わらずネットワークの帰納的ノード表現を学習する。
自明な束はファイバー束の単純な場合であり、その基底空間とファイバーの積空間を全世界的に成す空間である。
基底空間の座標とファイバーの座標は、エッジを生成する際の分解因子や分解因子を表現するために用いられる。
したがって、モデルにはこれらの要素を表現できる埋め込みを学習する能力がある。
実際には、ユークリッドや双曲GCNと比較してリンク予測とノード分類の誤差を低減する。
関連論文リスト
- Bundle Neural Networks for message diffusion on graphs [10.018379001231356]
結合ニューラルネットワーク(BuNN)は,任意のグラフ上の任意の特徴変換をインジェクティブな位置符号化で近似できることを示す。
また、BuNNが任意のグラフの族上の任意の特徴変換を近似して、任意の射影的位置エンコーディングを行えば、普遍的なノードレベルの表現性が得られることを証明した。
論文 参考訳(メタデータ) (2024-05-24T13:28:48Z) - Non-Euclidean Spatial Graph Neural Network [13.569970309961777]
グラフトポロジと空間幾何学を組み合わせた新しいメッセージパスベースニューラルネットワークを提案する。
理論的には、学習された表現が回転や翻訳といった重要な対称性に即時不変であることを保証する。
論文 参考訳(メタデータ) (2023-12-17T20:21:33Z) - Alignment and Outer Shell Isotropy for Hyperbolic Graph Contrastive
Learning [69.6810940330906]
高品質なグラフ埋め込みを学習するための新しいコントラスト学習フレームワークを提案する。
具体的には、階層的なデータ不変情報を効果的にキャプチャするアライメントメトリックを設計する。
双曲空間において、木の性質に関連する葉と高さの均一性に対処する必要があることを示す。
論文 参考訳(メタデータ) (2023-10-27T15:31:42Z) - Curve Your Attention: Mixed-Curvature Transformers for Graph
Representation Learning [77.1421343649344]
本稿では,一定曲率空間の積を完全に操作するトランスフォーマーの一般化を提案する。
また、非ユークリッド注意に対するカーネル化されたアプローチを提供し、ノード数とエッジ数に線形に時間とメモリコストでモデルを実行できるようにします。
論文 参考訳(メタデータ) (2023-09-08T02:44:37Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Unification Framework for Euclidean and Hyperbolic Graph Neural
Networks [8.080621697426997]
ハイパーボリックニューラルネットワークは、グラフデータセット固有の階層を効果的にキャプチャする。
層内の複数の非連続(ジャイロ-)ベクトル空間を絡み合わせることで、一般化と拡張性の観点から制限される。
検索空間としてPoincareディスクモデルを提案し,ディスク上にすべての近似を適用する。
我々のモデルは、解釈可能性や様々なモデルコンポーネントの効率的な実行といったユークリッドネットワークのパワーを利用するだけでなく、様々なベンチマークにおいてユークリッドと双曲の双方よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-09T05:33:02Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - Nested Hyperbolic Spaces for Dimensionality Reduction and Hyperbolic NN
Design [8.250374560598493]
ハイパーボリックニューラルネットワークは、階層的なデータセットを効率的かつ効率的に表現できることから、近年人気がある。
これらのネットワークを開発する際の課題は、埋め込み空間、すなわち双曲空間の非線形性にある。
本稿では, 射影(埋め込み)の概念と, 内在的な凝集, 双曲空間内の非線形性を併用した, 完全双曲型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T03:20:27Z) - Fully Hyperbolic Neural Networks [63.22521652077353]
ローレンツモデルに基づく双曲型ネットワークを構築するための,完全双曲型フレームワークを提案する。
提案手法は,浅層ネットワークと深層ネットワークの両方を構築する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-31T03:36:49Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。