論文の概要: Node Embedding for Homophilous Graphs with ARGEW: Augmentation of Random
walks by Graph Edge Weights
- arxiv url: http://arxiv.org/abs/2308.05957v1
- Date: Fri, 11 Aug 2023 06:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:06:31.346116
- Title: Node Embedding for Homophilous Graphs with ARGEW: Augmentation of Random
walks by Graph Edge Weights
- Title(参考訳): argewを用いた同相グラフのノード埋め込み:グラフエッジ重みによるランダムウォークの強化
- Authors: Jun Hee Kim, Jaeman Son, Hyunsoo Kim, Eunjo Lee
- Abstract要約: ARGEWはランダムウォークのための新しい拡張手法であり、コーパスをより大きなエッジ重みを持つノードがより近い埋め込みで終わるように拡張する。
いくつかの実世界のネットワークにおいて、ARGEWはそれを使用しないのに対し、より大きなエッジ重みを持つノード対がより密着した埋め込みを持つという望ましいパターンはより明確であることを示す。
- 参考スコア(独自算出の注目度): 2.2935273605606494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing nodes in a network as dense vectors node embeddings is important
for understanding a given network and solving many downstream tasks. In
particular, for weighted homophilous graphs where similar nodes are connected
with larger edge weights, we desire node embeddings where node pairs with
strong weights have closer embeddings. Although random walk based node
embedding methods like node2vec and node2vec+ do work for weighted networks via
including edge weights in the walk transition probabilities, our experiments
show that the embedding result does not adequately reflect edge weights. In
this paper, we propose ARGEW (Augmentation of Random walks by Graph Edge
Weights), a novel augmentation method for random walks that expands the corpus
in such a way that nodes with larger edge weights end up with closer
embeddings. ARGEW can work with any random walk based node embedding method,
because it is independent of the random sampling strategy itself and works on
top of the already-performed walks. With several real-world networks, we
demonstrate that with ARGEW, compared to not using it, the desired pattern that
node pairs with larger edge weights have closer embeddings is much clearer. We
also examine ARGEW's performance in node classification: node2vec with ARGEW
outperforms pure node2vec and is not sensitive to hyperparameters (i.e.
consistently good). In fact, it achieves similarly good results as supervised
GCN, even without any node feature or label information during training.
Finally, we explain why ARGEW works consistently well by exploring the
coappearance distributions using a synthetic graph with clear structural roles.
- Abstract(参考訳): ネットワーク内のノードを高密度ベクトルとして表現する ノード埋め込みは、与えられたネットワークを理解し、多くの下流タスクを解決するために重要である。
特に、類似ノードがより大きなエッジ重みで連結されている重み付きホモフィラスグラフの場合、重み付きノード対がより密接な埋め込みを持つノード埋め込みを求める。
node2vec や node2vec+ のようなランダムな歩行に基づくノード埋め込み手法は、歩行遷移確率のエッジ重みを含む重み付きネットワークでは有効であるが、我々の実験は、埋め込み結果がエッジ重みを適切に反映していないことを示した。
本稿では,エッジ重みを持つノードがより密接な埋め込みとなるようにコーパスを拡大する,ランダムウォークのための新しい拡張法であるargeew(グラフエッジ重みによるランダムウォークの導出)を提案する。
argewはランダムなウォークベースのノード埋め込み方式でも動作するが、これはランダムなサンプリング戦略自体とは独立しており、既に変換済みのウォーク上で機能する。
いくつかの実世界のネットワークでは、ARGEWはそれを使用しないのに対し、より大きなエッジ重みを持つノード対がより密接な埋め込みを持つという望ましいパターンはより明確である。
ノード分類におけるARGEWの性能についても検討する: node2vec with ARGEWは純粋なnode2vecより優れており、ハイパーパラメータに敏感ではない。
実際、トレーニング中にノードの特徴やラベル情報がなくても、教師付きGCNと同様の優れた結果が得られる。
最後に,argeewが一貫して機能する理由を,明確な構造的役割を持つ合成グラフを用いて説明する。
関連論文リスト
- Graphlets correct for the topological information missed by random walks [0.0]
我々は、2つのノードの隣接度を、与えられた一対のグラフレット軌道上で共起するものとして定量化する軌道隣接性を導入する。
我々は、kノードまでのランダムウォーキングが、kノードグラフレットまでの全ての軌道隣接部分集合のみをキャプチャすることを証明する。
ランダムウォークで見えないものを含む軌道上の隣接性は、ランダムウォークに基づく隣接性よりも優れています。
論文 参考訳(メタデータ) (2024-05-23T05:42:38Z) - Re-visiting Skip-Gram Negative Sampling: Dimension Regularization for More Efficient Dissimilarity Preservation in Graph Embeddings [8.858596502294471]
ノードワイドの反発は、集合的に、ノード埋め込み次元の近似的な再中心化であることを示す。
本稿では,教師付きあるいは教師なしのアルゴリズムを高速化するアルゴリズム拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-30T19:43:01Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Cold Brew: Distilling Graph Node Representations with Incomplete or
Missing Neighborhoods [69.13371028670153]
本稿では,SCS(Strict Cold Start)問題に対する誘導型GNNの有効性を検討するために,FCR(Feature-Contribution ratio)を導入する。
実験により,FCRはグラフデータセットの様々な成分の寄与を阻害し,コールドブリューの優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-08T21:29:25Z) - RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs [0.0]
グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
論文 参考訳(メタデータ) (2021-09-15T20:04:01Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。