論文の概要: Pseudo-Euclidean Attract-Repel Embeddings for Undirected Graphs
- arxiv url: http://arxiv.org/abs/2106.09671v2
- Date: Thu, 23 Mar 2023 16:45:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 19:50:58.274329
- Title: Pseudo-Euclidean Attract-Repel Embeddings for Undirected Graphs
- Title(参考訳): 非有向グラフに対する擬ユークリッドアトラクション・レペル埋め込み
- Authors: Alexander Peysakhovich, Anna Klimovskaia Susmel, Leon Bottou
- Abstract要約: ドット積埋め込みはグラフをとり、2つのベクトル間のドット積がエッジの強さを与えるようなノードのベクトルを構成する。
ノードを擬ユークリッド空間に埋め込むことにより、推移性仮定を除去する。
Pseudo-Euclidean 埋め込みはネットワークを効率よく圧縮でき、近接する隣人の複数の概念をそれぞれ独自の解釈で解釈でき、既存のモデルに'スロットできる。
- 参考スコア(独自算出の注目度): 73.0261182389643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dot product embeddings take a graph and construct vectors for nodes such that
dot products between two vectors give the strength of the edge. Dot products
make a strong transitivity assumption, however, many important forces
generating graphs in the real world lead to non-transitive relationships. We
remove the transitivity assumption by embedding nodes into a pseudo-Euclidean
space - giving each node an attract and a repel vector. The inner product
between two nodes is defined by taking the dot product in attract vectors and
subtracting the dot product in repel vectors. Pseudo-Euclidean embeddings can
compress networks efficiently, allow for multiple notions of nearest neighbors
each with their own interpretation, and can be `slotted' into existing models
such as exponential family embeddings or graph neural networks for better link
prediction.
- Abstract(参考訳): ドット積埋め込みはグラフをとり、2つのベクトル間のドット積がエッジの強さを与えるようなノードのベクトルを構成する。
ドット積は強い推移性を仮定するが、実世界でグラフを生成する多くの重要な力は非推移的関係に繋がる。
ノードを擬ユークリッド空間に埋め込むことで推移性仮定を取り除き、各ノードにアトラクションとrepelベクトルを与える。
2つのノード間の内積は、ドット積をベクトルを引き付けるために取り、ドット積をベクトルに減算することによって定義される。
擬似ユークリッド埋め込みはネットワークを効率よく圧縮でき、近隣の複数の概念をそれぞれ独自の解釈で解釈でき、指数関数的なファミリー埋め込みやグラフニューラルネットワークのような既存のモデルに“スロットト”してリンク予測を改善することができる。
関連論文リスト
- Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Promotion/Inhibition Effects in Networks: A Model with Negative
Probabilities [0.0]
生物学的ネットワークは、しばしばグラフの符号付きエッジウェイトとして促進/抑制をカプセル化する。
逆問題に対処し,ノードにおける有意な隣接度と表現レベルに基づいてネットワークエッジウェイトを決定する。
論文 参考訳(メタデータ) (2023-07-15T08:03:05Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Semisupervised regression in latent structure networks on unknown
manifolds [7.5722195869569]
ランダムドット積グラフは、それぞれの潜在位置の内積によって与えられる確率を持つ2つのノードの間にエッジを形成する。
本稿では,サンプル外ノードの応答変数を予測するために,多様体学習およびグラフ埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T00:41:04Z) - Spectral embedding and the latent geometry of multipartite networks [67.56499794542228]
多くのネットワークはマルチパーティションであり、ノードはパーティションに分割され、同じパーティションのノードは接続されない。
本稿では,高次元空間の分割特異的な低次元部分空間近傍のスペクトル埋め込みにより得られるノード表現について述べる。
スペクトル埋め込み後の追従ステップとして,周辺次元ではなく固有次元のノード表現を復元する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T15:52:03Z) - An Interpretable Graph Generative Model with Heterophily [38.59200985962146]
ヘテロフィリーを捉えるのに十分な表現性を持つ最初のエッジ非依存グラフ生成モデルを提案する。
我々の実験は、様々な重要なアプリケーションタスクに対して、我々のモデルの有効性を実証する。
論文 参考訳(メタデータ) (2021-11-04T17:34:39Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Directed Graph Representation through Vector Cross Product [2.398608007786179]
グラフ埋め込み法はグラフトポロジーを保ちながら低次元ベクトル空間のグラフにノードを埋め込む。
最近の有向グラフの研究は、各ノードに対する2つの埋め込み(ソースとターゲット)を学習することで、ノード間のエッジの向きを保つために提案されている。
本稿では,ベクトルクロス積の非可換性を利用して,ノード間のエッジ方向を本質的に保存する埋め込みを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T03:17:44Z) - Factorizable Graph Convolutional Networks [90.59836684458905]
本稿では,グラフに符号化された相互に絡み合った関係を明示的に解消する新しいグラフ畳み込みネットワーク(GCN)を提案する。
FactorGCNは単純なグラフを入力として取り、それをいくつかの分解グラフに分解する。
提案したFacterGCNは,合成および実世界のデータセットに対して質的かつ定量的に評価する。
論文 参考訳(メタデータ) (2020-10-12T03:01:40Z) - Adversarial Directed Graph Embedding [43.69472660189029]
本稿では、DGGANと呼ばれるジェネレーティブ・アドバイサル・ネットワークに基づく新しいグラフ埋め込みフレームワークを提案する。
主なアイデアは、各ノードのソースとターゲットベクターを共同で学習する2つのジェネレータと識別器をデプロイするために、敵のメカニズムを使用することである。
大規模な実験により、DGGANは有向グラフ上の複数のグラフマイニングタスクにまたがる既存の最先端の手法を一貫して、著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-08-09T06:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。