論文の概要、ライセンス

# (参考訳) グラフ表現の学習 [全文訳有]

Learning Graph Representations ( http://arxiv.org/abs/2102.02026v1 )

ライセンス: CC BY 4.0
Rucha Bhalchandra Joshi and Subhankar Mishra(参考訳) 社会や情報ネットワークは、近年、様々な用途で大きな人気を得ています。 ノードとエッジの形でのグラフによる知識表現は、元のデータの特徴をできるだけ多く保持する必要があります。 これらのグラフに関する興味深い有用な応用としては、グラフ分類、ノード分類、リンク予測などがある。 Graph Neural Networksはここ数年で進化してきた。 グラフニューラルネットワーク(GNNs)は、知識グラフとも呼ばれる数十億のエンティティ間の関係をキャプチャする大規模でダイナミックなグラフデータセットへの洞察を得る効率的な方法です。 本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダと時空間グラフニューラルネットワークについて論じる。 低次元のグラフの表現はこれらの方法を用いて学べる。 低次元の表現は、下流の機械学習タスクでさらに使うことができる。

Social and information networks are gaining huge popularity recently due to their various applications. Knowledge representation through graphs in the form of nodes and edges should preserve as many characteristics of the original data as possible. Some of the interesting and useful applications on these graphs are graph classification, node classification, link prediction, etc. The Graph Neural Networks have evolved over the last few years. Graph Neural Networks (GNNs) are efficient ways to get insight into large and dynamic graph datasets capturing relationships among billions of entities also known as knowledge graphs. In this paper, we discuss the graph convolutional neural networks graph autoencoders and spatio-temporal graph neural networks. The representations of the graph in lower dimensions can be learned using these methods. The representations in lower dimensions can be used further for downstream machine learning tasks.
公開日: Wed, 3 Feb 2021 12:07:55 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 3 1 2 0 2 b e F 3 0.85
] G L . ] G L。 0.79
s c [ 1 v 6 2 0 2 0 sc [ 1 v 6 2 0 2 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Learning Graph Representations Rucha Bhalchandra Joshi[0000−0003−1214−7985] and Subhankar グラフ表現の学習 Rucha Bhalchandra Joshi[0000−0003−1214−7985]とSubhankar 0.77
Mishra[0000−0002−9910−7291] mishra[0000−0002−9910−7291] 0.46
National Institute of Science Education and Research, Bhubaneswar - 752050, India ブーバネシュワル国立科学教育研究所 - 752050, インド 0.53
Homi Bhabha National Institute, Anushaktinagar, Mumbai - 400094, India Homi Bhabha National Institute, Anushaktinagar, ムンバイ - 400094, インド 0.83
{rucha.joshi, smishra}@niser.ac.in {rucha.joshi, smishra}@niser.ac.in 0.67
Abstract. Social and information networks are gaining huge popularity recently due to their various applications. 抽象。 社会や情報ネットワークは、近年、様々な用途で大きな人気を得ています。 0.72
Knowledge representation through graphs in the form of nodes and edges should preserve as many characteristics of the original data as possible. ノードとエッジの形でのグラフによる知識表現は、元のデータの特徴をできるだけ多く保持する必要があります。 0.75
Some of the interesting and useful applications on these graphs are graph classification, node classification, link prediction, etc. これらのグラフに関する興味深い有用な応用としては、グラフ分類、ノード分類、リンク予測などがある。 0.77
The Graph Neural Networks have evolved over the last few years. Graph Neural Networksはここ数年で進化してきた。 0.89
Graph Neural Networks (GNNs) are efficient ways to get insight into large and dynamic graph datasets capturing relationships among billions of entities also known as knowledge graphs. グラフニューラルネットワーク(GNNs)は、知識グラフとも呼ばれる数十億のエンティティ間の関係をキャプチャする大規模でダイナミックなグラフデータセットへの洞察を得る効率的な方法です。 0.73
In this paper, we discuss the graph convolutional neural networks graph autoencoders and spatio-temporal graph neural networks. 本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダと時空間グラフニューラルネットワークについて論じる。 0.77
The representations of the graph in lower dimensions can be learned using these methods. 低次元のグラフの表現はこれらの方法を用いて学べる。 0.71
The representations in lower dimensions can be used further for downstream machine learning tasks. 低次元の表現は、下流の機械学習タスクでさらに使うことができる。 0.69
Keywords: Graph Neural Networks · Graph Embeddings · Graph Representation Learning キーワード: グラフニューラルネットワーク · グラフ埋め込み · グラフ表現学習 0.73
1 Introduction The complex networks like social networks, citation networks etc. 1 はじめに ソーシャルネットワークや引用ネットワークのような複雑なネットワーク。 0.72
can very well be represented in form of graphs. グラフの形で非常によく表すことができます。 0.73
The questions related to these graphs can be addressed using neural networks. これらのグラフに関連する質問は、ニューラルネットワークを使って対処できる。 0.63
However, feeding the graphs as input to the neural networks needs to be done cleverly. しかし、ニューラルネットワークへの入力としてグラフをフィードするには、巧妙に行う必要がある。
訳抜け防止モード: しかし、ニューラルネットワークへの入力としてグラフを摂る 巧妙にやらなければならない
0.75
This is due to the vast and complex nature of the graphs. これはグラフの広大で複雑な性質によるものである。 0.78
The nodes of the graph need to be represented in lower dimensional vector form so that it can easily be given as input to the neural network to address the problems. グラフのノードは低次元のベクトル形式で表現する必要があるため、問題に対処するためにニューラルネットワークへの入力として容易に得ることができる。 0.87
These representations should characterize the information contained in the graphs. これらの表現は、グラフに含まれる情報を特徴付けるべきです。 0.62
They should capture the structural as well as the feature information contained in the graph. 構造とグラフに含まれる特徴情報をキャプチャする必要があります。 0.71
The representations in lower dimensional space can be then fed to a neural network to address the tasks on the graphs. 低次元空間における表現はニューラルネットワークに供給され、グラフ上のタスクに対処することができる。 0.80
These representations are necessary in order to reduce to some extent the overhead caused due to the large size of the network. これらの表現は、ネットワークの大規模なサイズに起因するオーバーヘッドをある程度削減するために必要です。 0.76
These representations in lower dimensional space are also called the embeddings. 低次元空間におけるこれらの表現は埋め込みとも呼ばれる。 0.76
Several shallow embedding techniques like DeepWalk [19], Node2vec [5] were earlier introduced to generate node representations. DeepWalk [19]、Node2vec [5]などの浅い埋め込み技術が、ノード表現を生成するために導入された。 0.68
They considered only 彼らはただ 0.66
英語(論文から抽出)日本語訳スコア
2 R. Joshi and S. Mishra 2 R. JoshiとS. Mishra 0.85
the vertex set and the adjacency matrix of the graph in order to generate the embeddins. 埋め込みディンを生成するために、頂点セットとグラフの隣接行列。 0.57
An encoding function and a similarity function that measures the similarity between similar nodes in the embedding space need to be defined. 埋め込み空間における類似ノード間の類似度を測定する符号化関数と類似性関数を定義する必要がある。 0.83
The parameters are optimized based on this similarity function. この類似性関数に基づいてパラメータを最適化する。 0.82
The shortcoming of such methods are, however, the large number of parameters to be optimized and also that these methods did not consider the feature information to generate the node embeddings. しかし、そのような手法の欠点は、最適化すべきパラメータの多さと、これらの手法がノード埋め込みを生成する特徴情報を考慮していないことである。 0.74
To overcome these shortcomings, the deep graph neural networks are used. これらの欠点を克服するために、ディープグラフニューラルネットワークが使用される。 0.60
There have been several approaches to produce the representations for nodes which considered the node features in addition to the structure of the node neighborhood. ノード近傍の構造に加えて、ノードの特徴を考慮したノードの表現を作成するためのいくつかのアプローチがある。 0.84
Initial methods are from spectral graph theory, which mostly require matrix factorization. 初期の手法はスペクトルグラフ理論によるもので、主に行列分解を必要とする。 0.58
To improve on such methods the spatial based methods were introduced. このような手法を改善するために空間的手法を導入した。 0.61
These methods consider information diffusion and message passing. これらの手法は情報拡散とメッセージパッシングを考慮に入れる。 0.58
The neighborhood feature information is aggregated to generate the representation of a particular node. 近傍の特徴情報は集約され、特定のノードの表現を生成する。 0.73
Figure 1 is the portrayal of nodes in original graph mapped to their representations in embedding space. 図1は、埋め込み空間における表現にマッピングされた元のグラフにおけるノードの描写である。 0.69
Fig. 1. Representing nodes in embedding space. フィギュア。 1. 埋め込みスペースのノードを表します。 0.65
Similar nodes in original graph must be similar in embedding space. 元のグラフの類似ノードは埋め込み空間でも同様でなければならない。 0.67
In this paper we review the popular graph neural network methods that are primarily based on neighborhood aggregation. 本稿では,主に近傍の集約に基づく一般的なグラフニューラルネットワーク手法について概説する。 0.74
The graph neural networks were introduced by [4]. グラフニューラルネットワークは[4]によって導入された。 0.73
Then there were several improvements on the same in terms of how the neighborhood aggregation is done. その後、近隣の集計方法に関しても、同じ改善点がいくつかあった。 0.67
The neighborhood aggregation is looked at as the convolution over the node in the graph. 近隣の集計は、グラフのノード上の畳み込みとして見られています。 0.70
The spectral graph theory has the notion of convolutions on the graph where a graph signal, which is feature vector of a node in this case, convolved in the Fourier domain. スペクトルグラフ理論は、グラフ上の畳み込みの概念を持ち、この場合のノードの特徴ベクトルであるグラフ信号はフーリエ領域に含まれる。 0.68
This idea have been used in the spectral based methods whereas the spatial based methods broadly rest on the concept of neighborhood aggregation. この考え方はスペクトルベース手法で用いられてきたが、空間ベース手法は近隣集約の概念に広く依存している。 0.69
The graphs autoencoders aims at reconstructing the original adjacency matrix. グラフオートエンコーダは、元の隣接行列の再構築を目指しています。 0.49
The architecture 建築 0.47
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 3 グラフ表現の学習 3 0.85
includes an encoder and a decoder. エンコーダとデコーダを含みます。 0.68
We have discussed the graph auto-encoding techniques in this paper. 本稿では,グラフの自動エンコーディング手法について述べる。 0.74
The spatio-temporal graph neural networks are designed to work with the data that can be easily modeled using spatio-temporal graphs. 時空間グラフニューラルネットワークは時空間グラフを用いて容易にモデル化できるデータを扱うように設計されている。 0.75
The graph changes over the period of time, depending on the system that is being modeled. グラフは、モデル化されているシステムによって、時間とともに変化する。 0.85
The graph neural network used to generate the embedding for such data structure should consider the spatial as well as the temporal dependencies in the graph. このようなデータ構造の埋め込みを生成するために使用されるグラフニューラルネットワークは、グラフの時間依存だけでなく空間も考慮すべきである。 0.78
We discuss some of the spatio-temporal graph neural network methods in this paper. 本稿では,時空間グラフニューラルネットワークの手法について述べる。 0.74
The rest of the paper is organized as follows. 残りの論文は以下の通り整理される。 0.66
In section 2 we discuss the preliminaries. セクション2では、予備事項について議論します。 0.45
We discuss spectral and non-spectral graph convolutional methods in section 3, autoencoding techniques in 4 and spatio-temporal graph neural networks in section 5. 第3部ではスペクトルおよび非スペクトルグラフ畳み込み法,第4部では自己符号化法,第5部では時空間グラフニューラルネットワークについて検討する。
訳抜け防止モード: 第3節では、スペクトルおよび非スペクトルグラフ畳み込み法について論じる。 第5節第4節と時間グラフニューラルネットワークにおける自動エンコーディング技術
0.70
Section 6 is discussions and section 7 discusses the future directions. 第6部は議論であり、第7部は今後の方向性について議論する。 0.45
We conclude the paper with section 8. 論文は第8節で締めくくります。 0.56
2 Preliminaries A graph is represented as G = (V, E) where V is a set of vertices or nodes and E is the set of edges. 2 予備 グラフは G = (V, E) として表され、V は頂点またはノードの集合であり、E はエッジの集合である。 0.80
Let vi ∈ V be the ith node in the vertex set V . vi ∈ V を頂点集合 V の i 番目のノードとする。 0.80
The edge connecting nodes vi and vj is represented as eij = (vi, vj). ノードviとvjを接続するエッジはeij = (vi, vj) として表現される。 0.80
n is the number of nodes in the graph and m is the number of edges. n はグラフ内のノード数、m はエッジ数である。 0.61
A is the adjacency matrix of the graph. A はグラフの隣接行列である。 0.62
The dimension of A is n × n. The entry Aij = 1 if eij ∈ E . a の次元は n × n であり、エントリ aij = 1 は eij ∈ e である。 0.78
The neighbourhood N (v) of a node v is defined as N (v) = {u ∈ V |(v, u) ∈ E}. ノード v の近傍 N (v) は N (v) = {u ∈ V |(v, u) ∈ E} と定義される。
訳抜け防止モード: ノード v の近傍 N ( v ) は N ( v ) = { u ∈ V |(v, v) と定義される。 u ) ∈ E } である。
0.89
The feature vector corresponding to node v is represented as xv ∈ Rd where d is the size of node feature vector. ノード v に対応する特徴ベクトルは、d がノード特徴ベクトルのサイズである xv ∈ Rd として表される。 0.90
The matrix of feature vectors of nodes in a graph is X ∈ Rn×d. グラフ内のノードの特徴ベクトルの行列は X ∈ Rn×d である。 0.82
The hidden representation corresponding to node v is given as hk v in kth layer of the Graph Neural Network. ノードvに対応する隠れ表現は、グラフニューラルネットワークのk層においてhkvとして与えられる。 0.80
The final representation corresponding to a node in the embedding space is denoted as zv 埋め込み空間内のノードに対応する最後の表現は zv と表記される 0.84
Table 1 summarizes the frequently used notations with their descriptions. 表1は、頻繁に使われる表記をその記述で要約する。 0.66
3 Convolutional Graph Neural Networks 3つの畳み込みグラフニューラルネットワーク 0.72
The convolutional graph neural networks draw motivations from the conventional convolutional neural networks(CNNs). 畳み込みグラフニューラルネットワークは、従来の畳み込みニューラルネットワーク(CNN)からモチベーションを引き出す。 0.68
These graph neural networks can be divided into two categories based on the principle they work on. これらのグラフニューラルネットワークは、作業する原則に基づいて2つのカテゴリに分けることができます。 0.70
The spectral based convolutional graph neural networks and the spatial based convolutional graph neural networks. スペクトルベースの畳み込みグラフニューラルネットワークと空間ベースの畳み込みグラフニューラルネットワーク。 0.66
The early spectral based methods essentially makes use of the adjacency matrix and degree matrix of the graph and perform the convolution operation in the Fourier domain. 初期のスペクトルベースの方法は、グラフの隣接行列と次数行列を本質的に利用し、フーリエ領域での畳み込み演算を行う。 0.73
The convolution filter is applied to the graph signal in the Fourier domain, and then transformed back to the graph domain. 畳み込みフィルタはフーリエ領域のグラフ信号に適用され、グラフ領域に変換される。
訳抜け防止モード: 畳み込みフィルタはフーリエ領域のグラフ信号に適用される。 その後、グラフドメインに変換されます。
0.72
The limitation of these kind of convolutional methods is that these are inherently transductive and hence need the entire graph for the computation. この種の畳み込みの方法の限界は、これらが本質的にトランスダクティブであるため、計算にグラフ全体が必要であることである。
訳抜け防止モード: このような畳み込みの方法の限界は これらは本質的にトランスダクティブであり、計算にはグラフ全体が必要である。
0.81
In the transductive setting, the model is specific to the graph it is trained on, and may not be extendable to the graph that has not been seen by the model. トランスダクティブ設定では、モデルはトレーニング対象のグラフに固有のものであり、モデルが見ていないグラフには拡張できない可能性があります。 0.73
英語(論文から抽出)日本語訳スコア
4 R. Joshi and S. Mishra 4 R. JoshiとS. Mishra 0.85
Table 1. Notations Description Notation A graph G The set of nodes V The set of edges E A vertex in V vi An edge in E connecting vertices vi and vj ei,j Number of nodes n Number of edges m The adjacency matrix of graph G A The diagonal matrix of node degrees of graph G D The neighbourhood of v N (v) Feature vector of node v xv The feature matrix of graph G X The dimension of the node representation in previous layer d d(cid:48) The dimension of the node representation generated in current layer hk Node v’s representation in kth hidden layer v Hk Matrix of node representations in kth hidden layer Node v’s representation in the embedding space zv Matrix of node representations in the embedding space Z Laplacian of a matrix L L Normalized Laplacian of a matrix Matrix of eigenvalues U Matrix of eigenvectors Λ ith eigenvectors λi Learnebale convolutional kernel θ Diagonal matrix of learnebale convolutional kernels Θ Non-linear activation function σ Learneable parameters for kth layer Wk, Bk Some aggregation function AGG Element-wise mean aggregator M EAN Element-wise pooling operator γ Long short term memory aggregator LST M Permutation function π αij Attention coefficient between i and j LeakyRELU Leaky rectified linear unit activation  p q E KL(·||·) N (µ, σ) (cid:63)G r(t) u(t) C (t) 表1。 表記 Description Notation A graph G The set of nodes V The set of edges E A vertex in V vi An edge in E connecting vertices vi and vj ei,j Number of nodes n Number of edges m The adjacency matrix of graph G A The diagonal matrix of node degrees of graph G D The neighbourhood of v N (v) Feature vector of node v xv The feature matrix of graph G X The dimension of the node representation in previous layer d d(cid:48) The dimension of the node representation generated in current layer hk Node v’s representation in kth hidden layer v Hk Matrix of node representations in kth hidden layer Node v’s representation in the embedding space zv Matrix of node representations in the embedding space Z Laplacian of a matrix L L Normalized Laplacian of a matrix Matrix of eigenvalues U Matrix of eigenvectors Λ ith eigenvectors λi Learnebale convolutional kernel θ Diagonal matrix of learnebale convolutional kernels Θ Non-linear activation function σ Learneable parameters for kth layer Wk, Bk Some aggregation function AGG Element-wise mean aggregator M EAN Element-wise pooling operator γ Long short term memory aggregator LST M Permutation function π αij Attention coefficient between i and j LeakyRELU Leaky rectified linear unit activation  p q E KL(·||·) N (µ, σ) (cid:63)G r(t) u(t) C (t) 0.71
A learneable parameter to determine a node’s contribution to the next layer update Distribution of input data Estimation of distribution of latent variable Expectation KL divergence between two distributions Normal distribution with mean µ and standard deviation σ Diffusion convolution operator Reset gate vector Update gate vector Candidate gate vector 平均μと標準偏差σ拡散畳み込み演算子リセットゲートベクトル更新ゲートベクトル候補ゲートベクトルとの2つの分布正規分布間の潜在変数期待kl分布の分布推定のための入力データの次の層更新分布へのノードの寄与を決定するための学習可能なパラメータ 0.90
英語(論文から抽出)日本語訳スコア
These methods also do not use the shared parameters. これらのメソッドは共有パラメータも使用しない。 0.85
In contradiction to transductive methods, the inductive graph neural network methods are such that the parameters can be used to generate the embeddings for unseen graphs. 帰納的手法とは矛盾して、帰納的グラフニューラルネットワーク法は、未確認グラフの埋め込みを生成するためにパラメータを使用することができる。 0.59
Learning Graph Representations 5 グラフ表現の学習 5 0.85
The graph structure is given by the adjacency matrix. グラフ構造は隣接行列によって与えられる。 0.68
Although a particular adjacency matrix is not the only way to represent the graph. 特定の隣接行列がグラフを表現する唯一の方法ではないが。 0.65
There could be multiple adjacency matrices corresponding to a particular graph. 特定のグラフに対応する複数の隣接行列が存在するかもしれない。 0.62
Hence, the representation in lower dimensional space should be specific to the graph and not to the adjacency matrix. したがって、低次元空間における表現は、隣接行列ではなくグラフに特化されるべきである。 0.73
Irrespective of any permutation of the adjacency matrix of a graph, the graph neural network should give the same representation for a particular task. グラフの隣接行列の任意の置換に関係なく、グラフニューラルネットワークは特定のタスクに対して同じ表現を与えるべきです。 0.71
It is essential that the function generating the representations should either be invariant or equivariant, depending on whether the task at hand is graph level or node level. 表現を生成する関数は、手元のタスクがグラフレベルまたはノードレベルであるかどうかに応じて、不変または等価である必要があります。 0.73
For the graph level task like graph classification, the graph neural network function needs to be permutation invariant as described in the following equation: グラフ分類のようなグラフレベルのタスクでは、グラフニューラルネットワーク関数は以下の式で記述した変分不変である必要がある。 0.80
f(cid:0)QAQT , X(cid:1) = f (A, X) f(cid:0)QAQT , X(cid:1) = f(A, X) 0.96
(1) (2) where, Q is a permutation matrix, A is adjacency matrix of the graph, X is the feature matrix corresponding to the graph and f denotes the function approximated by the neural network. (1) (2) ここで、Q は置換行列であり、A はグラフの隣接行列であり、X はグラフに対応する特徴行列であり、f はニューラルネットワークによって近似された関数を表す。 0.81
For node level tasks like node classification, the graph neural network function ノード分類のようなノードレベルのタスクの場合、グラフニューラルネットワーク関数 0.86
needs to be permutation equivariant as given in the equation below: 以下の式で示されるように、置換同型である必要があります。 0.51
f(cid:0)QAQT , X(cid:1) = Qf (A, X) f(cid:0)QAQT , X(cid:1) = Qf (A, X) 0.96
3.1 Spectral Based 3.1 スペクトルベース 0.70
of the graph G defined as Dii =(cid:80) dii =(cid:80)と定義されるグラフgの 0.85
The spectral based methods perform operations on the graph by making use of the adjacency matrix of the graph, Laplacian matrix of the graph etc. スペクトルに基づく手法は、グラフの隣接行列、グラフのラプラシア行列等を用いてグラフ上で演算を行う。 0.67
The Laplacian of the graph is the measure of smoothness of it. グラフのラプラシアン (Laplacian) は、その滑らかさの測度である。 0.70
The non-normalized graph Laplacian is defined as L = D− A where D is the diagonal degree matrix j Aij. 非正規化グラフ Laplacian は L = D− A と定義されるが、D は対角行列 j Aij である。 0.82
The normalized graph Laplacian is L = In − D−1/2AD−1/2. 正規化グラフ Laplacian は L = In − D−1/2AD−1/2 である。 0.57
L is a real symmetric positive semidefinite matrix. L は実対称正半定行列である。 0.82
It has a complete set of orthogonal eigenvectors with associated real positive eigenvalues. 正の正の固有値を持つ直交固有ベクトルの完全集合を持つ。 0.70
The matrix can be factorized as L = UΛUT where U = [u0, u1, ..., un−1] ∈ Rn×n is a matrix of eigenvectors arranged according to eigenvalues and Λ is a diagonal matrix with eigenvalues {λ0, λ1, ..., λn−1} as diagonal elements. U = [u0, u1, ..., un−1] ∈ Rn×n は固有値に従って配置された固有ベクトルの行列であり、 λ は固有値 {λ0, λ1, ..., λn−1} を対角元とする対角行列である。 0.76
The graph signal is a function x that maps vertices to R. The graph Fourier transform of a given graph signal x is defined as ˆf (x) = UT x and the inverse graph Fourier transform is given by f (ˆx) = Uˆx. グラフ信号は R に頂点を写す関数 x である。与えられたグラフ信号 x のグラフフーリエ変換は \\f(x) = UT x として定義され、逆グラフフーリエ変換は f(x) = U*x によって与えられる。 0.87
This working of the convolutional graph neural networks is show in figure The convolution operation in the spectral based is methods is defined by applying a filter which is a diagonal matrix gθ = diag(θ), where θ ∈ Rn to the Fourier transform of the signal as follows: この畳み込みグラフニューラルネットワークの動作は、スペクトルベースis法における畳み込み演算が、ダイアゴナル行列 gθ = diag(θ) であるフィルタを適用することで定義される。
訳抜け防止モード: この畳み込みグラフニューラルネットワークの動作は、スペクトルベースis法における畳み込み演算が対角行列gθ = diag(θ ) であるフィルタを適用することで定義される。 ここで θ ∈ rn は信号のフーリエ変換に次のようになる。
0.75
gθ ∗ x = UgθUT x gθ ∗ x = UgθUT x 0.82
(3) (3) 0.85
英語(論文から抽出)日本語訳スコア
6 R. Joshi and S. Mishra 6 R. JoshiとS. Mishra 0.85
Fig. 2. Working of spectral based graph convolutional methods. フィギュア。 2. スペクトルに基づくグラフ畳み込み法の研究 0.63
The graph and the kernel is convolved once they are transformed into the Fourier Domain. グラフとカーネルは、それらがフーリエ領域に変換されると変換される。 0.74
The result of the convolution is transformed back to as the convolved graph by applying the inverse Fourier transform. 畳み込みの結果は、逆フーリエ変換を適用することにより、畳み込みグラフとして変換される。 0.74
Spectral graph convolutional networks [1] considers the signal with multiple K channels and hence fk filters in layer k for k = 1, ..., K. The input signal to each i ∈ Rn×fk . スペクトルグラフ畳み込みネットワーク[1]は複数のkチャネルを持つ信号を考慮し、k = 1, ..., k の層 k におけるfkフィルタを考える。
訳抜け防止モード: スペクトルグラフ畳み込みネットワーク [1 ] は複数のkチャネルを持つ信号を考える したがって、k 層の fk フィルタは k = 1 である。 それぞれの i ∈ rn×fk に対する入力信号。
0.80
of the layer is Hk−1 The convolution operation is defined as: 層のHk−1 畳み込み操作は次のように定義されます。 0.66
∈ Rn×fk−1 and the output signal generated is Hk ∈ Rn×fk−1 と生成した出力信号は Hk である 0.76
i Hk+1 j = σ(U 私は Hk+1 j = σ(U) 0.70
Θk i,jUT Hk j ) θk i,jUT Hk j) 0.74
(j = 1, ..., fk−1) (j = 1, ..., fk−1) 0.94
(4) where Θk O(n3). (4) ここで -k O(n3)。 0.75
i,j is diagonal matrix of learnable parameters. i,jは学習可能なパラメータの対角行列です 0.82
This operation costs i=1 この手術費用は i=1 0.67
ChebNet [3] approximates the filter gθ as truncated Chebyshev’s polynomials up to K degree of the polynomial of the diagonal matrix of the eigenvalues Λ. チェブネット [3] は、フィルター gθ を固有値の対角行列の多項式の K 次まで truncated Chebyshev の多項式として近似する。 0.74
The Chebyshev’s polynomials are recursively defined as T0(x) = 1, T1(x) = x, Tk+1(x) = 2xTk(x) − Tk−1(x). チェビシェフ多項式は T0(x) = 1, T1(x) = x, Tk+1(x) = 2xTk(x) − Tk−1(x) と再帰的に定義される。 0.86
The convolutional filter is parameterized as: 畳み込みフィルタは次のようにパラメータ化される。 0.55
fk−1(cid:88) fk−1(cid:88) 0.65
gθ(Λ) = θkTk( ˆΛ) gθ(a) = θktk(λ) 0.77
(5) where θ ∈ RK is vector consisting Chebyshev’s coefficients, Tk( ˆΛ) is defined at − In. (5) θ ∈ RK がチェビシェフ係数からなるベクトルであるとき、Tk( ) は − In で定義される。 0.80
The convolution operation on the graph signal x using the above ˆΛ = 2Λ λmax filter is hence defined as: グラフ信号 x 上の畳み込み演算は、上記の λ = 2λ λmax フィルタを用いて次のように定義される。 0.77
gθ ∗ x = θkTk(ˆL)x gθ ∗ x = θkTk(\L)x 0.93
(6) where ˆL = 2L of the filtering operation from O(n3) to O(Km). (6) ここでは、O(n3) から O(Km) へのフィルタリング演算の 2L である。 0.81
− In and Tk(ˆL) = UTk( ˆΛ)UT . − In と Tk(nL) = UTk(n)UT である。 0.78
ChebNet reduces the complexity ChebNetが複雑性を削減 0.73
λmax CayleyNets [11] define the convolution filter as follows: λmax CayleyNets [11] は畳み込みフィルタを次のように定義します。 0.73
K(cid:88) k=0 K(cid:88) k=0 0.71
K(cid:88) k=0 K(cid:88) k=0 0.71
x ∗ gθ = c0x + 2Re{ r(cid:88) x = c0x + 2Re{ r(cid:88) 0.87
j=0 cj(hL − iI)j(hL + iI)−jx} j=0 cj(hL − iI)j(hL + iI)−jx} 0.75
(7) (7) 0.85
英語(論文から抽出)日本語訳スコア
where L is normalized graph Laplacian matrix, Re(.) ここで L は正規化グラフ Laplacian matrix, Re() である。 0.79
gives the real part of 本当の部分を与えてくれます 0.48
the Cayley’s polynomial, c and h are learnable parameters. ケイリーの多項式 c と h は学習可能なパラメータです。 0.68
Learning Graph Representations 7 グラフ表現の学習 7 0.85
The filters proposed by Graph Convolutional Networks(GCN) [9] convolve over the graph and limits the K value from ChebNet to 2. Graph Convolutional Networks (GCN) [9] が提案したフィルタはグラフ上に展開し、K値を ChebNet から 2 に制限する。 0.86
Having the larger value of K may over smoothen the information in the node, by aggregating too much infromation from the neighborhood nodes. K の大きい値を持つことは、近傍ノードからの着信を過剰に集約することによって、ノード内の情報をスムーズにする可能性がある。
訳抜け防止モード: K の値が大きいこと 近隣ノードからの過剰なインクルージョンを集約することで、ノード内の情報を過度にスムースにすることができる。
0.72
The convolution operation for GCN is: GCNの畳み込み操作は次のとおりです。 0.62
gθ ∗ x = θ0x + θ1D− 1 gθ ∗ x = θ0x + θ1D− 1 0.71
2 AD− 1 2 x 2 AD− 1 2 x 0.99
(8) where θ0 and θ1 are learnable parameters. (8) θ0 と θ1 は学習可能なパラメータである。 0.75
Equation 8 can be written in matrix form as follows: 方程式8は以下の行列形式で書くことができる。 0.76
where ˜A = A+In and ˜Dii =(cid:80) A = A+In と Dii = (cid:80) 0.78
j H = ˜D 1 j H = >D 1 0.85
2 ˜A ˜D 1 (9) ˜Aij. 2 ~A ~D 1 (9)。 0.68
The identity matrix is added to adjacency アイデンティティマトリックスが隣接して追加される 0.65
2 XΘ matrix in order to include the contribution from the node itself. 2xθ ノード自体からのコントリビューションを含めるためにマトリックス。 0.64
Dual Graph Convolutional Networks(DGCN) introduced by [27] applies two graph convolutions on same inputs in order to capture the local and the global consistencies. 27]によって導入されたデュアルグラフ畳み込みネットワーク(DGCN)は同じ入力に2つのグラフ畳み込みを適用して、ローカルとグローバル構成をキャプチャします。 0.76
It uses Positive Pointwise Mutual Information(PPMI) matrix for encoding the information. Positive Pointwise Mutual Information(PPMI)マトリックスを使用して情報をエンコードします。 0.86
3.2 Non Spectral Based 3.2 非スペクトルベース 0.77
The graph neural networks that are not spectral based primarily use the principle of message passing. スペクトルベースではないグラフニューラルネットワークは、主にメッセージパッシングの原則を使用します。 0.78
The node feature information is shared across the neighborhood of the node. ノードの特徴情報は、ノードの近傍で共有されます。 0.79
The methods differ in the way they apply the aggregations over the neighborhood. これらの手法は、近傍に集約を適用する方法によって異なる。 0.69
Fig. 3. Neighborhood aggregations. フィギュア。 3. 近所の集まり。 0.64
To generate the representation of vertex (e.g. 頂点(例えば)の表現を生成する。 0.70
v), the spatial based methods consider the contributions from the neighborhood nodes(u1, u2, u3 in this example). v) 空間ベース手法では,近傍ノード(u1,u2,u3)からの貢献を考える。
訳抜け防止モード: v) 近傍ノードからの寄与を考慮した空間ベース手法(u1,) u2 , u3 (この例では )。
0.79
The methods specify how the neighborhood information is aggregated. メソッドは、近傍情報がどのように集約されるかを指定する。 0.52
NN4G [16] is a constructive feedforward neural network. NN4G [16]は構成的フィードフォワードニューラルネットワークである。 0.73
The neighborhood information is summed up which is why it causes the hidden states to have different scales. 近隣の情報は要約され、それが隠された状態が異なるスケールを持つ原因となる。 0.76
英語(論文から抽出)日本語訳スコア
8 R. Joshi and S. Mishra 8 R. JoshiとS. Mishra 0.85
The GCN model aggregates neighborhood features and reduces the impact of high degree neighboring nodes. GCNモデルは近隣の特徴を集約し、近隣の高次ノードの影響を低減する。 0.74
Equation 8 can also be viewed as follows for each of the nodes v in kth layer: 方程式 8 は kth 層の各ノード v に対して次のように見ることができる。 0.77
Wk (cid:88) u∈N (v)(cid:83) v ^Wk (cid:88) u∈N(v)(cid:83) v 0.66
u(cid:112)|N (u)||N (v)| u(cid:112)|N(u)|N(v)| 0.90
hk−1  hk hk−1  hk 0.76
v = σ (10) v = σ (10) 0.85
The contribution of the high degree neighbors is lowered in this manner. この方法では、高位の隣人の貢献が低下する。 0.66
The GCN model works in trasductive manner for fixed graphs. GCNモデルは、固定グラフに対してトラスダクティブに機能する。 0.75
Many of the earlier approaches optimize the node embeddings using matrix factorization based objective functions. 初期のアプローチの多くは、行列分解に基づく客観的関数を使ってノード埋め込みを最適化する。 0.60
An inductive approach called GraphSAGE was introduced by [6]. graphsage と呼ばれる帰納的アプローチが [6] で導入された。 0.61
GraphSAGE samples a fixed size neighborhood of a node and applies the aggregators on those. GraphSAGEはノードの固定サイズ近傍をサンプリングし、それらにアグリゲータを適用する。 0.74
Unlike the previous transductive approaches, GraphSAGE does not generate embeddings unique to a particular graph. 従来のトランスダクティブアプローチとは異なり、GraphSAGEは特定のグラフ固有の埋め込みを生成しない。 0.79
The trained model can be applied to a new similar graph. トレーニング済みモデルは、新しい類似グラフに適用できます。 0.78
The embedding for a node v is computed as follows: ノード v の埋め込みは次のように計算される。 0.78
v = σ(cid:0)Wk · CON CAT(cid:0)hk−1 v = σ(cid:0)Wk · CON CAT(cid:0)hk−1 0.84
v hk , AGG(cid:0){hk−1 v hk , AGG(cid:0){hk−1 0.83
,∀u ∈ N (v)}(cid:1)(cid:1)(cid:1 ) ,\u ∈ N (v)}(cid:1)(cid:1)(cid:1 ) 0.84
u (11) where, AGG is aggregation function applied on the neighborhood of a node. ウ (11) ここでAGGは、ノードの近傍に適用される集約関数である。 0.72
The aggregated neighborhood is concatenated with the current node’s previous layer representation. 集約された近傍は、現在のノードの以前の層表現と連結される。 0.68
The three aggregators examined in [6] are as follows: 6]で調べた3つのアグリゲーターは次のとおりです。 0.67
The mean aggregator which takes element-wise mean of the neighborhood 近傍の要素回り平均を取る平均集計器 0.55
representations of a node as given in equation 12. 方程式12で与えられるノードの表現。 0.66
AGG = M EAN(cid:0)(cid:8)hk−1 AGG = M EAN(cid:0)(cid:8)hk−1 0.78
(cid:9) ∪(cid:8)hk−1 (cid:9) (cid:8)hk−1 0.74
,∀u ∈ N (v)(cid:9)(cid:1) ,u ∈ N (v)(cid:9)(cid:1) 0.82
v u (12) The pooling aggregator is given in equation 13, where a neural network is applied to the representations of neighborhood nodes and then element-wise max-pool operation(γ) is applied. v ウ (12) プールアグリゲータは方程式13で与えられ、ニューラルネットワークが近傍ノードの表現に適用され、その後、要素ワイズ最大プール操作(γ)が適用される。
訳抜け防止モード: v ウ (12) プールアグリゲータは、ニューラルネットワークが近傍ノードの表現に適用される方程式13で与えられる。 そして、要素 - wise max - pool operation (γ ) が適用される。
0.76
AGG = γ(cid:0)(cid:8)σ(cid:48)(cid:0)Wpool hk−1 AGG = γ(cid:0)(cid:8)σ(cid:48)(cid:0)Wpool hk−1 0.76
u + b(cid:1) ,∀u ∈ N (v)(cid:9)(cid:1) u + b(cid:1) ,\u ∈ N (v)(cid:9)(cid:1) 0.89
(13) The third aggregator is Long Short Term Memory(LSTM) aggregator. (13) 第3のアグリゲータはLong Short Term Memory(LSTM)アグリゲータである。 0.74
The LSTM architecture depends on the order of the input hence the aggregator is applied to a random permutation of the neighbors. LSTMアーキテクチャは入力の順序に依存しているため、アグリゲータは隣人のランダムな置換に適用されます。 0.66
It is given in equation 14. 式は14で与えられる。 0.72
AGG = LST M(cid:0)(cid:2)hk−1 AGG = LST M(cid:0)(cid:2)hk−1 0.78
,∀u ∈ π (N (v))(cid:3)(cid:1) ,u ∈ π (N (v))(cid:3)(cid:1) 0.89
u The Graph Attention Networks [23] introduced attention based method to generate the node representation by taking attending over the neighborhood of the node. ウ The Graph Attention Networks [23] introduced attention based method to generate the node representation by take part over the neighborhood of the node。 0.68
The attention coefficient of a node and each of its neighbor is computed as given in equation 15 and a graphical representation is shown in figure 4. ノードとその近傍の注意係数は、方程式15で与えられたように計算され、図4でグラフィカル表現が示される。
訳抜け防止モード: ノードとその隣接ノードの注意係数は、式15で与えられるように計算される。 そして、図4にグラフィカルな表現を示します。
0.80
exp(cid:0)LeakyReLU( cid:0)aT [Whu|Whi](cid:1)(cid:1) exp(cid:0)LeakyReLU( cid:0)aT [Whu|Whi](cid:1)(cid:1) 0.80
(cid:80) j∈N (v) exp (LeakyReLU (aT [Whv|Whj])) (cid:80) j∈N (v) exp (LeakyReLU (aT [Whv|Whj])) 0.96
αui = (14) αui = (14) 0.87
(15) (15) 0.85
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 9 グラフ表現の学習 9 0.85
Fig. 4. Attention coefficients. フィギュア。 4. 注意係数。 0.64
Each of the neighbors may not contribute equally to the representation of a node, hence the attention coefficient is calculated in Graph Attention Networks. それぞれの隣人はノードの表現に等しく寄与しないため、注意係数はグラフ注意ネットワークで計算される。
訳抜け防止モード: 隣人のそれぞれがノードの表現に等しく貢献することはできません。 したがって、注意係数はグラフ注意ネットワークで計算されます。
0.75
In this example, the attention coefficients are shown as αvui where ui are neighbors of v. この例では、注意係数は、ui が v の近傍である αvui として示される。 0.64
where we compute importance of node i’s features to node v’s representation. ここで、ノードiの機能の重要性をノードvの表現に計算します。 0.77
It is normalized using softmax over the neighborhood. 近隣ではsoftmaxで正規化されている。 0.63
The attention mechanism used here is Multi-Layered Perceptron applied to the concatenation of the linearly transformed representations of the node v and node i. ここで使われる注意メカニズムは、ノードvとノードiの線形変換表現の連結に適用されるマルチ層パーセプトロンである。 0.76
The attention coefficient is further used to take the weighted linear combination of the neighborhood representations of the node in order to form next layer representation for the current node. 注意係数は、現在のノードの次の層表現を形成するために、ノードの近傍表現の重み付けされた線形結合を取るためにさらに用いられる。 0.74
A non-linear function σ is applied to the linear combination as given by equation 16. 方程式16で与えられる線形結合に非線形関数σを適用する。 0.76
 (cid:88) i∈N (v)∪v (cid:88) i∈N(v) 0.92
 hk v = σ  hk v = σ 0.85
αviWhk−1 i αviWhk−1 私は 0.50
(16) To stabilize the learning process, the multi-head attention is used. (16) 学習過程を安定させるために、多頭注意を用いる。 0.78
The attention coefficients are calculated by applying different attention mechanisms in different attention heads. 異なる注目ヘッドに異なる注意機構を適用することにより、注目係数を算出する。 0.71
The representations generated using each of the attention mechanisms are either concatenated as in equation 17 which increases the dimensions of the new representation to RL×d(cid:48) . 各注意メカニズムを使用して生成された表現は、新しい表現の寸法をRL×d(cid:48)に増加させる方程式17のように連結される。 0.71
We consider that there are L attention heads. 我々はLの注意点があると考えている。 0.58
The above equation generates the representation with dimensions L times more. 上記の方程式は L 倍の次元を持つ表現を生成する。 0.64
In order to stabilize the learning as well as generate representation of size d(cid:48), the L representations are averaged as in equation 18. 学習を安定させ、サイズd(cid:48)の表現を生成するため、L表現は方程式18で平均化される。 0.74
(cid:13)(cid:13)(cid :13)L (cid:13)(cid:13)(cid :13)L 0.76
hk v = σ l=1 hk v = σ l=1 0.78
 (cid:88) i∈N (v)(cid:83) v i∈N (v)(cid:83) v 0.67
αk,l vi Wl αk,l vi Wl 0.99
khk−1 i  1 khk−1 私は  1 0.66
L L(cid:88) L L(cid:88) 0.85
l=1 (cid:88) i∈N (v)(cid:83) v l=1 (cid:88) i∈N(v)(cid:83) v 0.68
hk v = σ αk,l vi Wl hk v = σ αk,l vi Wl 0.90
khk−1 i  khk−1 私は  0.66
 (17) (18)  (17) (18) 0.85
英語(論文から抽出)日本語訳スコア
10 R. Joshi and S. Mishra 10 R. JoshiとS. Mishra 0.85
The non-linearity is applied after taking the average of the neighborhood 非線形性は、近隣の平均値を取った後に適用される 0.69
representation from each of the attention heads. それぞれの注目の頭から表現します 0.65
Graph Isomorphism Networks [25] is a framework that generalizes the Weisfeiler- グラフ同型ネットワーク [25] はWeisfeilerを一般化するフレームワークである 0.79
Lehman (WL) [24] isomorphism test. Lehman (WL) [24] isomorphism test。 0.78
The node feature representation update function is given as follows: node feature representation update関数は以下のとおりである。 0.82
(cid:16) 1 + (k)(cid:17) · hk−1 s(cid:16) 1 + s(k)(cid:17) · hk−1 0.82
v + hk v = M LP (k) v + hk v = M LP (k) 0.85
 hk−1 u (cid:88)  hk−1 ウ (cid:88) 0.70
u∈N (v) (19) u∈N (v) (19) 0.85
where  is a learneable parameter. は学習可能なパラメータである。 0.68
The graph neural network is said to be powerful if the aggregation function it uses is injective, that is if it maps the non isomorphic graphs to different representations. グラフニューラルネットワークは、アグリゲーション関数が射影関数である場合、すなわち非同型グラフを異なる表現にマッピングする場合、強力であると言われている。 0.74
In the previous models, max pooling or mean pooling were used to do the neighborhood aggregation. 前述したモデルでは、最大プールまたは平均プールが近所のアグリゲーションに使われた。 0.65
These schemes fail to fully capture the structural dissimilarity between two dissimilar graphs. これらのスキームは、2つの異なるグラフ間の構造的異性を完全に捉えることができない。 0.52
GIN uses the sum pooling and manages to map nodes with different structure to different node representations. GINはsumプールを使用し、異なる構造を持つノードを異なるノード表現にマッピングする。 0.79
In some corner cases GIN fails to produce the different representations for nodes with different rooted subtree structure. いくつかのコーナーの場合、GINは異なるルートのサブツリー構造を持つノードの異なる表現を生成できない。
訳抜け防止モード: 一部のコーナーではGINは失敗する to produce the different representations for node with different rooted subtree structure。
0.85
These cases are resolved using Relational Pooling [17] architecture. これらのケースはRelational Pooling [17]アーキテクチャを使って解決される。 0.65
4 Graph Autoencoders 4 グラフオートエンコーダ 0.76
Fig. 5. Graph Autoencoder(GAE). フィギュア。 5. グラフオートエンコーダー(GAE)。 0.69
The X and A are the feature matrix and the adjacency matrix of the graph respectively. X と A はそれぞれグラフの特徴行列と隣接行列である。 0.59
Z is the matrix of latent representations and ˆA is the reconstructed adjacency matrix. Z は潜在表現の行列であり、A は再構成された隣接行列である。 0.55
The graph autoencoders(GAE) consists of two parts, encoder and the decoder. グラフオートエンコーダ(GAE)は、エンコーダとデコーダの2つの部分で構成される。 0.73
The encoder produces the latent representations corresponding to the nodes of the graph and the decoder part of a GAE aims at reconstructing the original adjacency matrix of the graph. エンコーダはグラフのノードに対応する潜在表現を生成し、GAEのデコーダ部はグラフの元の隣接行列を再構成することを目的としている。 0.75
The GAE is shown in the figure 5. GAEは図5に示されます。 0.70
The variational graph autoencoders learns the latent representations in a probabilistic way. 変分グラフオートエンコーダは確率的な方法で潜在表現を学習する。 0.67
[10] introduced Graph variational auto-encoders(VGAE). [10] Graph variational auto-encoders (VGAE)を導入した。 0.71
The conventional working of a GVAE is shown in the figure 6. 図6には、gvaeの従来の作業を示す。 0.68
The VGAE uses two layered GCN [9] as the inference model and the inner product of the representations as the generative model. VGAEは2つの層状GCN[9]を推論モデルとして、表現の内積を生成モデルとして使用します。 0.79
The inference model or the encoder of VGAE that consists of GCN layers is as follows: gcn層からなるvgaeの推論モデルまたはエンコーダは以下のとおりである。 0.73
英語(論文から抽出)日本語訳スコア
Table 2. Various methods discussed in the paper. 表2。 論文で議論された様々な方法。 0.68
Category Spectral based Spectral Graph カテゴリスペクトルに基づくスペクトルグラフ 0.86
Method Convolutional Networks [1] ChebNet [3] 方法 畳み込みネットワーク[1] ChebNet [3] 0.76
GCN [9] GraphSAGE [6] hk GCN[9] GraphSAGE [6] hk 0.83
Non based spectral 非ベース スペクトル 0.67
Graph toencoders Graph Toencoder 0.64
Au- Spatiotemporal Graph Neural Networks 秋 時空間グラフニューラルネットワーク 0.62
Graph Attention Networks [23] グラフ注意ネットワーク[23] 0.79
Graph Isomorphism Networks [25] GAE [10] グラフ同型ネットワーク [25] GAE [10] 0.72
Linear GAE [20] [21] 線形GAE [20] [21] 0.71
DCRNN [12] DCRNN [12] 0.85
STGCN [26] STGCN [26] 0.85
Learning Graph Representations 11 グラフ表現の学習 11 0.85
1 2 ˜A ˜D 1 2 XΘ 1 2 ~A ~D 1 2 xθ 0.76
H = ˜D i=1 Θk H = >D i=1 θk 0.71
i,jUT Hk j ) i,jUT Hk j) 0.83
(j = 1, ..., fk−1) (j = 1, ..., fk−1) 0.94
Update Hk+1 アップデート Hk+1 0.64
k=0 Tk(ˆL)XΘk k=0 Tk(\L)X\k 0.70
j = σ(U(cid:80)fk−1 H =(cid:80)K (cid:3)(cid:1) ,∀u ∈ N (v)}(cid:1) , Bkhk−1 v = σ(cid:0)(cid:2)Wk · AGG(cid:0){hk−1 (cid:17) (cid:17) 1 + (k)(cid:17) · hk−1 v = M LP (k)(cid:16)(cid:16) v +(cid:80) ˆA = sigmoid(cid:0)ZZT(ci d:1) j = σ(U(cid:80)fk−1 H = (cid:80)K (cid:3) (cid:1) , Bkhk−1 v = σ(cid:0)(cid:2)Wk · AGG(cid:0){hk−1 (cid:17) (cid:17) 1 + sh(k)(cid:17) · hk−1 v = M LP (cid:16)(cid:16) v +(cid:80) シュA = sigmoid(cid:0)ZT(cid :1) 0.92
i∈N (v)∪v αviWhk−1 i∈N(v)\v αviWhk−1 0.66
Z = GCN (X, A) where Z = GCN (X, A) ここで 0.86
u∈N (v) hk−1 u∈N (v) hk−1 0.71
(cid:16)(cid:80) (cid:16)(cid:80) 0.75
hk v = σ hk hk v = σ hk 0.85
u i v u Z = ˜AW and ウ 私は v ウ Z = >AW, および 0.65
r(t) = σ u(t) = σ r(t) = σ u(t) = σ 0.85
(cid:16) (cid:16) (cid:16)(cid:16) 0.73
Wr (cid:63)G Wr (cid:63)G 0.88
Wu (cid:63)G 武(cid:63)g 0.68
ˆA = sigmoid(ZZT ) A = sigmoid(ZZT) です。 0.80
X(t), H(t−1)(cid:105) (cid:17) (cid:104) X(t), H(t−1)(cid:105) (cid:17) (cid:104) r(t) (cid:12) H(t−1)(cid:17)(cid:105) (cid:16) (cid:104) (cid:16) 1 − u(t)(cid:17) (cid:12) C (t) (cid:16) 0 ∗τ Hl(cid:1)(cid:1) 1 ∗τ ReLU(cid:0)Θl ∗(cid:0)Γl x(t), h(t−1)(cid:105) (cid:17) (cid:104) x(t), h(t−1)(cid:105) (cid:17) (cid:104) r(t) (cid:12) h(t−1)(cid:17)(cid:105) (cid:16) (cid:104) (cid:16) 1 − u(t)(cid:17) (cid:12) c(t) (cid:16) 0 ∗τ hl(cid:1) (cid:0)θl ∗(cid:0)γl。 0.84
X(t), + bu + br X(t)。 +分 +br 0.72
C (t) = tanh H(t) = u(t) (cid:12) H(t−1) + C (t) = tanh H(t) = u(t) (cid:12) H(t−1) + 0.99
Wc (cid:63)G Wc (cid:63)G 0.88
H(l+1) = Γl H(l+1) = sl 0.87
(cid:17) + bc (cid:17) + bc 0.82
Fig. 6. Graph Variational Autoencoder(GAE). フィギュア。 6. グラフ変分オートエンコーダ(GAE)。 0.68
The mean µ and variance σ of the the input is calculated by two respective encoders in order to know the distribution. 入力の平均 μ と分散 σ は、分布を知るために2つのエンコーダによって計算される。 0.80
英語(論文から抽出)日本語訳スコア
12 R. Joshi and S. Mishra 12 R. JoshiとS. Mishra 0.85
q (A|Z) = N(cid:89) q (A|Z) = N(cid:89) 0.86
i=1 q (zi|X, A) , where i=1 q (zi|X, A) , where 0.78
q (zi|X, A) = N(cid:0)zi|µi, diag(cid:0)σ2 (cid:16) ˜AXW0 q (zi|X, A) = N(cid:0)zi|μi, diag(cid:0)σ2 (cid:16) ^ AXW0 0.72
(cid:17) i (cid:17) 私は 0.66
(cid:1)(cid:1) (cid:1)(cid:1) 0.75
(20) where µ and σ are calculated using GCNs. (20) μ と σ は gcns を用いて計算される。 0.78
The first layer of their GCNs share the weights. GCNの最初の層は重みを共有している。 0.71
The two layers of the GCN work as per equation 10, which can be written as GCN (X, A) = ˜AReLU W1, where W0 and W1 are weight matrices corresponding to first and second layer of the GCN and the matrix ˜A = D− 1 2 . GCNの2つの層は方程式10に従って機能し、GCN(X, A) = シアルルW1と書くことができ、W0とW1はGCNの第1層と第2層に対応する重み行列であり、行列は「A = D−1 2」である。 0.70
The generative model or the decoder for the GVAE is given based on the similarities of the latent space variables, which are generated using the ‘reparameterization trick’[8]. GVAEの生成モデルまたはデコーダは、「再パラメータ化トリック」[8]を使用して生成された潜在空間変数の類似性に基づいて与えられる。 0.78
This is necessary as the back-propagation cannot be done when q (zi|X, A) is sampled, since it cannot be differentiated. これは、q (zi|x, a) がサンプリングされたときにバックプロパゲーションができないため必要である。 0.59
The generative model or the decoder is as follows: 生成モデルまたはデコーダは以下のとおりである。 0.85
2 AD− 1 p (A|Z) = 2 AD-1 p (A|Z) = 0.82
N(cid:89) N(cid:89) N(cid:89) N(cid:89) 0.84
p (Aij|zi, zj) , where p (Aij = 1|zi, zj) = sigmoid(cid:0)zT p (Aij|zi, zj) , ここで p (Aij = 1|zi, zj) = sigmoid(cid:0)zT 0.89
(cid:1) i zj (cid:1) i zj 0.82
i=1 j=1 The objective function for GVAE is i=1 j=1 GVAEの目的関数は 0.60
L = Eq(Z|X,A) [log p(A|Z)] − KL[q(Z|X, A)||p(Z)] L = Eq(Z|X,A) [log p(A|Z)] − KL[q(Z|X, A)|p(Z)] 0.99
(21) (22) where, the first term gives the expectation of the likelihood of generating the adjacency matrix A when the latent variables are sampled from the distribution q(Z|X, A). (21) (22) ここで、第一項は、分布 q(Z|X, A) から潜伏変数がサンプリングされたとき、隣接行列 A を生成する確率を期待する。 0.80
The second term in the equation calculates the Kullback-Leibler divergence between the two distributions q(Z|X, A) and p(Z). 方程式の第2項は、2つの分布 q(Z|X, A) と p(Z) の間のクルバック・ライバーの発散を計算する。 0.74
The non-probabilistic version of the Graph Autoencoders(GAE) consists of only the two layer GCN as encoder and the inner product of the matrices of latent variables as decoder that reconstructs the adjacency matrix ˆA. グラフオートエンコーダ(GAE)の非確率バージョンは、エンコーダとしての2つの層GCNと、隣接行列を再構築するデコーダとしての潜在変数の行列の内部積のみからなる。 0.78
This is given in the following equations. これは以下の方程式で与えられる。 0.82
(cid:16) ZZT(cid:17) (cid:16) ZZT(cid:17) 0.81
ˆA = sigmoid a = sigmoid である。 0.55
where Z = GCN (X, A) ここで Z = GCN (X, A) 0.84
The reconstruction loss in GAE is minimized as follows: GAEの再建損失は、次のように最小化される。 0.59
(cid:104) (cid:105) (cid:104) (cid:105) 0.78
L = Eq(Z|X,A) L = Eq(Z|X,A) 0.96
log p( ˆA|Z) log (複数形 logs) 0.65
(23) (24) The shortcoming of the GVAE is that it primarily preserves only the topological structure of the graph. (23) (24) GVAEの欠点は、主にグラフの位相構造のみを保存することである。 0.78
The Adversarially Regulated Graph Autoencoders(ARGA) [18] encodes the contents of the nodes along with the topological structure of graph. Adversarially Regulated Graph Autoencoders (ARGA) [18] はグラフの位相構造とともにノードの内容を符号化する。 0.76
This model makes use of adversarial regularization. このモデルは逆正則化を利用する。 0.65
The latent representations are matched with the prior distribution so that the discriminator can discriminate the latent variable zi if is from the encoder or from the prior distribution. 潜入表現は、エンコーダから、または先行分布からある場合、判別器が潜入変数 zi を判別できるように、先行分布と一致する。 0.63
Adversarially Regulated Variational Graph Autoencoders(ARVGA) are also discussed in the paper where it makes use of the VGAE instead of a GAE. また,GAE の代わりに VGAE を応用した論文では,ARVGA (Adversarially Regulated Variational Graph Autoencoders) についても論じている。 0.91
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 13 グラフ表現の学習 13 0.85
The autoencoding techniques that we have discussed makes use of GCNs as an encoder. 我々が議論した自動符号化技術は、GCNをエンコーダとして利用する。 0.70
[20], [21] recently proposed to use a linear model as an encoder instead of the GCN. [20], [21] は先日,GCNの代わりに線形モデルをエンコーダとして使用する提案を行った。 0.82
This model is called Linear Graph Auto Encoders(LGAE). このモデルはLinear Graph Auto Encoders(LGAE)と呼ばれる。 0.88
The encoder and decoder of LGEA is as follows: LGEAのエンコーダとデコーダは以下の通りである。 0.80
Z = ˜AW and Z = >AW, および 0.75
ˆA = sigmoid(ZZT ) A = sigmoid(ZZT) です。 0.80
(25) where W is the weight matrix corresponding to the linear encoder. (25) ここで W は線型エンコーダに対応する重み行列である。 0.81
The encoder linearly maps the adjacency matrix to the latent space. エンコーダは隣接行列を潜在空間に直線的にマッピングする。 0.70
The encoder of the linear graph variational autoencoders(LGVAE) outputs 線形グラフ変動オートエンコーダ(LGVAE)出力のエンコーダ 0.66
the distribution by giving µ and σ as follows: μとσを下記の通り与えることによる分布 0.88
µ = ˜AWµ and log σ = ˜AWσ μ = ^AWμ および log σ = awσ 0.87
then zi ∼ N (µi, diag(σ2 i )) このとき zi は N (μi, diag(σ2 i )) 0.78
(26) Except the encoder, rest of the model is similar to that of the GVAE as discussed above. (26) エンコーダを除いて、モデルの他の部分は上述したGVAEのものと似ている。 0.77
5 Spatio-temporal Graph Neural Networks 時空間グラフニューラルネットワーク5 0.84
The spatio-temporal systems have dependency on both time and space. 時空間系は時間と空間の両方に依存する。 0.77
The dependency can be observed in a form of changes in the structure or the features over the period of time. 依存関係は、一定期間にわたって構造または特徴の変化の形で観察することができる。 0.68
If the systems can be well modeled using a graph, we need to also incorporate the changes that occur in this graph. システムがグラフを使用してうまくモデル化できれば、このグラフに発生する変更も組み込む必要があります。 0.75
These type of graphs are dominated by temporal in addition to spatial and feature information as in earlier cases. これらのグラフは、以前の例のように空間情報や特徴情報に加えて、時間的に支配される。 0.68
The neural networks that would be used to find the embeddings of these graph, hence, need to consider the changes in the graph happening over the period of time. したがって、これらのグラフの埋め込みを見つけるのに使用されるニューラルネットワークは、時間の経過中に発生するグラフの変化を考慮する必要があります。 0.84
We can broadly categorize these neural networks as spatio-temporal graph neural networks(STGNNs). これらのニューラルネットワークを時空間グラフニューラルネットワーク(STGNN)として広く分類することができる。 0.66
The typical choice for handling the spatial dependencies is using some neural network that produces the embedding considering the structural and feature information of the graph. 空間依存を扱う典型的な選択は、グラフの構造情報と特徴情報を考慮して埋め込みを生成するニューラルネットワークを使うことである。 0.83
A typical example of this could be using a Graph Convolutional Network [9]. この典型的な例は、グラフ畳み込みネットワーク [9] を使うことである。 0.85
Whereas in order to handle the temporal information, a suitable variation of a recurrent neural network may be used. 一方、時間情報を処理するために、繰り返しニューラルネットワークの適切な変動が使用される可能性がある。 0.74
While this is a very broad way of finding embeddings using STGNNs, various other combinations can be made based on the need of the system. これはSTGNNを使って埋め込みを見つけるための非常に広い方法であるが、システムのニーズに応じて様々な組み合わせが可能である。 0.74
The Graph Convolutional Recurrent Neural Network [22] proposed two architectures. グラフ畳み込みリカレントニューラルネットワーク [22] は2つのアーキテクチャを提案した。 0.71
Both the architectures use the LSTM in order to model the temporal dependency. 両方のアーキテクチャは、時間依存性をモデル化するためにLSTMを使用する。 0.71
They differ from each other in the method that is used to model the spatial dependency. これらは空間依存をモデル化するために使用される方法において互いに異なる。 0.82
One of the two uses the Convolutional Neural Networks over graph, while the other one uses the Graph Convolutions. そのうちの1つはグラフ上の畳み込みニューラルネットワークを使い、もう1つはグラフ畳み込みを使用する。 0.72
The Diffusion Convolution Recurrent Neural Network(DCRNN) [13] uses the diffusion convolution to model the spatial dependency while the temporal dependency is modeled using a Gated Recurrent Unit(GRU) [2].The diffusion is defined as follows: 拡散畳み込みリカレントニューラルネットワーク(DCRNN)[13]は、空間依存性をモデル化するために拡散畳み込みを使用し、時間依存性はGRU(Gated Recurrent Unit)[2]を用いてモデル化されるが、拡散は次のように定義される。 0.82
X (cid:63)G W = X (cid:63)G W = 0.94
WO + WI X (27) WO +WI X (27) 0.79
K(cid:88) (cid:16) K(cid:88) (cid:16) 0.81
k=0 (cid:0)D−1 O A(cid:1)k k=0 (cid:0)D−1 O A(cid:1)k 0.67
I AT(cid:1)k(cid:17) (cid:0)D−1 I AT(cid:1)k(cid:17) (cid:0)D−1 0.75
英語(論文から抽出)日本語訳スコア
14 R. Joshi and S. Mishra 14 R. JoshiとS. Mishra 0.85
F i g . 7 . F i g。 7 . 0.80
i D ff u s i o n C o n v o l 私は D ff u s i o n C o n v o l 0.69
u t i o n a l u t i o n a l 0.85
R e c u r r e n t N e u r a l R e c u r r e n t N e u r a l 0.85
N e t w o r k s N e t w o r k s 0.85
[ 1 2 ] [ 1 2 ] 0.85
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 15 グラフ表現の学習 15 0.85
where, (cid:63)G is a diffusion convolution operation over graph G. The diffusion operation is applied K times. ここで、(cid:63)G はグラフ G 上の拡散畳み込み演算である。 0.56
WO and WI are learneable parameters for bidirectional diffusion. WOとWIは双方向拡散の学習可能なパラメータである。 0.60
DO is the out-degree matrix and DI is the in-degree matrix. DOは外度行列、DIは内度行列である。 0.61
The diffusion convolution layer is defined as follows: 拡散畳み込み層は次のように定義される。 0.73
H = σ (X (cid:63)G W) H = σ (X (cid:63)G W) 0.99
(28) where, W ∈ Rd(cid:48)×d, H ∈ Rn×d and X ∈ Rn×d(cid:48) . (28) ここで、 W ∈ Rd(cid:48)×d, H ∈ Rn×d, X ∈ Rn×d(cid:48) である。 0.85
The diffusion convolution can be applied in directed as well as undirected setting. 拡散畳み込みは無向設定と同様に有向にも適用できる。 0.64
Note that the spectral graph convolution is similar diffusion convolution when applied in undirected graphs. スペクトルグラフ畳み込みは、非向グラフに適用されるときに同様の拡散畳み込みである。 0.75
The temporal dependency is captured using GRU as follows: 時間依存性は、以下のようにGRUを使用してキャプチャされます。 0.47
X(t), H(t−1)(cid:105) (cid:17) (cid:104) (cid:104) X(t), H(t−1)(cid:105) (cid:17) (cid:16) r(t) (cid:12) H(t−1)(cid:17)(cid:105) (cid:104) (cid:16) 1 − u(t)(cid:17) (cid:12) C (t) X(t), H(t−1)(cid:105) (cid:104) (cid:104) X(t), H(t−1)(cid:105) (cid:17) (cid:16) r(t) (cid:12) H(t−1)(cid:17)(cid:105) (cid:104) (cid:16) 1 − u(t)(cid:12) C(t) 0.91
X(t), + br + bu X(t)。 +br +分 0.72
(cid:17) + bc (cid:17) + bc 0.82
(29a) (29b) (29a) (29b) 0.94
(29c) (29d) (29c) (29d) 0.94
(cid:16) (cid:16) (cid:16)(cid:16) 0.73
r(t) = σ u(t) = σ r(t) = σ u(t) = σ 0.85
Wr (cid:63)G Wr (cid:63)G 0.88
Wu (cid:63)G 武(cid:63)g 0.68
(cid:16) C (t) = tanh H(t) = u(t) (cid:12) H(t−1) + (cid:16) C (t) = tanh H(t) = u(t) (cid:12) H(t−1) + 0.89
Wc (cid:63)G Wc (cid:63)G 0.88
The terms used in STGNNs are listed in the table 3. STGNNで使用される用語は、表3に記載されている。 0.71
The encoder-decoder architectures is used in DCRNNs to make the predictions based on the data. エンコーダデコーダアーキテクチャは、データに基づいて予測を行うためにDCRNNで使用されます。 0.74
The encoder generates a fixed length embeddings for the data which is then passed to a decoder that makes the predictions. エンコーダはデータの固定長埋め込みを生成し、デコーダに渡されて予測を行う。 0.61
Table 3. Diffusion Convolution Recurrent Neural Network Terminology 表3。 拡散畳み込み Recurrent Neural Network Terminology 0.77
r(t) Reset gate vector u(t) Update gate vector C (t) Candidate gate vector H(t) Output vector W, b Parameter matrix and vector r(t) リセットゲートベクトル u(t) 更新ゲートベクトル C(t) 候補ゲートベクトル H(t) 出力ベクトル W, b パラメータ行列およびベクトル 0.79
The Dynamic Diffusion Convolutional Recurrent Neural Network(D-DCRNN) [15] is similar to DCRNN, as it has an encoder decoder architecture with both of them having the convolutional and the recurrent layers. The Dynamic Diffusion Convolutional Recurrent Neural Network (D-DCRNN) [15] is similar to DCRNN, has a encoder decoder architecture with the both with the convolutional and the Recurrent layer。 0.79
The adjacency matrix in the D-DCRNN is dynamic in nature which is computed from the current state of the data. D-DCRNNの隣接行列は、データの現在の状態から計算される性質において動的である。 0.83
Most of the STGNN architectures have been designed by keeping the traffic networks in mind. STGNNアーキテクチャのほとんどは、トラフィックネットワークを念頭に置いて設計されている。 0.79
The recurrent networks are slow with respect to aspects such as complex gate mechanisms, dynamic changes etc. 複雑なゲート機構、動的な変化などの側面に関して、リカレントネットワークは遅くなります。 0.72
In order to overcome these, the architecture called Spatio-temporal Graph Convolutional Networks(STGCN), proposed in [26], makes use of convolutions. これらを克服するために, [26] で提案された Spatio-temporal Graph Convolutional Networks (STGCN) と呼ばれるアーキテクチャは,畳み込みを利用する。 0.80
The STGCN architecture as shown in figure 8 basically has two blocks of spatio-temporal convolutions followed by the output layer. 図8に示すように、stgcnアーキテクチャは基本的に2つの時空間畳み込みと出力層を持つ。 0.69
Each of the spatio-temporal block sandwiches a spatial convolutional block between to temporal gated convolutional blocks as shown in 各時空間ブロックは、示すように、時空間ゲートの畳み込みブロック間の空間畳み込みブロックをサンドイッチする。 0.73
英語(論文から抽出)日本語訳スコア
16 R. Joshi and S. Mishra 16 R. JoshiとS. Mishra 0.85
Fig. 8. The spatio-temporal block in STGCN [26] that sandwiches a spatial convolutional block between two temporal gated convolutional blocks. フィギュア。 8. 2つの時間ゲート畳み込みブロックの間に空間畳み込みブロックを挟むSTGCN[26]の時空間ブロック。 0.69
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 17 グラフ表現の学習 17 0.85
the equation 30. Unlike the previously discussed architectures, STGCN does not have the encoder-decoder architecture, but it still incorporates the bottleneck strategy by making use of 64 filters for temporal gated convolutional blocks and 16 filters for Spatial graph convolution block. 等式は30。 先述したアーキテクチャとは異なり、STGCNはエンコーダ・デコーダアーキテクチャを持たないが、時空間ゲート畳み込みブロックに64のフィルタ、空間グラフ畳み込みブロックに16のフィルタを使用するというボトルネック戦略を取り入れている。 0.71
In each of the temporal gated convolutional block, residual connection is used. 各時間ゲート畳み込みブロックでは、残留接続が使用される。 0.71
Gated Linear Unit(GLU) acts as an activation in these blocks. ゲート付き線形ユニット(GLU)はこれらのブロックのアクティベーションとして機能する。 0.70
1 ∗τ ReLU(cid:0)Θl ∗(cid:0)Γl 1 ∗τ ReLU(cid:0)-l ∗(cid:0)-l 0.87
0 ∗τ Hl(cid:1)(cid:1) 0 ∗τ Hl(cid:1)(cid:1) 0.78
H(l+1) = Γl H(l+1) = sl 0.87
(30) 0 and Γl (30) 0およびγl 0.80
where Γl 1 are the upper and lower temporal kernels in the spatio-temporal block l, Θ is the spectral graph convolution kernel and ReLU is the rectified linear unit. 空間 1 が時空間ブロック l の上部と下部の時系列核であるとき、その時空間 1 はスペクトルグラフ畳み込み核であり、ReLU は整流線形単位である。 0.67
6 Discussion While the previous approaches have been transductive in nature, the GraphSAGE was the approach introduced as inductive one. 6 議論 従来のアプローチは本質的にはトランスダクティブだったが、GraphSAGEはインダクティブアプローチとして導入された。 0.67
The inductive approaches can generate the embeddings for unseen networks using the model trained on similar graphs. 誘導的アプローチは、類似のグラフで訓練されたモデルを使用して、見えないネットワークの埋め込みを生成することができる。 0.55
Most of the approaches before GraphSAGE work in trasductive setting, that is, they cannot generalize to similar new data. GraphSAGE以前のアプローチのほとんどは、トラダクティブな設定で動作します。つまり、同様の新しいデータに一般化することはできません。 0.67
Though they can be modified to work for new similar graphs, but the modification is computationally expensive. 新しい類似グラフ用に修正することは可能だが、その修正は計算量的に高価である。 0.72
Graph attention networks do work in inductive manner. グラフの注意ネットワークは誘導的な方法で機能する。 0.66
The results shown by GAT are better when compared with GraphSAGE. GATが示す結果は、GraphSAGEよりも優れている。 0.70
The weightage in form of attention coefficient corresponding to each pair of the neighbors, determines the contribution of the neighbor in the embedding. 隣人の各ペアに対応する注意係数の形の重みは、埋め込みにおける隣人の貢献を決定します。 0.67
The graph structures that cannot be distinguished by the GNNs like GCN, GraphSAGE, are indentified in GIN paper. GCNやGraphSAGEのようなGNNでは区別できないグラフ構造は、GINの論文に具体化されている。 0.79
The GIN architecture is as powerful as WL-isomorphism test in distinguishing the graph structures. GIN のアーキテクチャは、グラフ構造を区別する WL-同型テストと同じくらい強力である。 0.64
Table 4. Summary of features exhibited by the methods discussed in this paper. 表4。 本稿では,提案手法が示す特徴について概説する。 0.69
Spectral Spatial Temporal Transductive Inductive スペクトル空間時空間伝導誘導体 0.66
Method Spectral Graph Convolutional Networks [1] ChebNet [3] GCN [9] GraphSAGE [6] Graph Attention Networks [23] Graph Isomorphism Networks [25] GAE [10] Linear GAE [20] [21] [9] DCRNN [12] STGCN [26] 方法 スペクトルグラフ畳み込みネットワーク [1] ChebNet [3] GCN [9] GraphSAGE [6] Graph Attention Networks [23] Graph Isomorphism Networks [25] GAE [10] Linear GAE [20] [21] [9] DCRNN [12] STGCN [26] 0.84
• • • ◦ ◦ ◦ ◦ ◦ ◦ ◦ • • • ◦ ◦ ◦ ◦ ◦ ◦ ◦ 0.85
◦ ◦ ◦ • • • • • • • ◦ ◦ ◦ • • • • • • • 0.85
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ • • ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ • • 0.85
• • • ◦ ◦ ◦ ◦ ◦ ◦ ◦ • • • ◦ ◦ ◦ ◦ ◦ ◦ ◦ 0.85
◦ ◦ ◦ • • • • • • • ◦ ◦ ◦ • • • • • • • 0.85
During the training of DCRNNs, the final states of encoder are passed on to the decoder. DCRNNの訓練の間に、エンコーダの最終状態はデコーダに渡されます。 0.63
which then generates the predictions given the ground truth. 根底にある真実の予測を 生み出すのです 0.54
英語(論文から抽出)日本語訳スコア
18 R. Joshi and S. Mishra 18 R. JoshiとS. Mishra 0.85
During the testing time, the preditions replace the ground truth, which leads to variation in the distribution. テスト期間中、プレディションは地上の真実を置き換え、分布の変化につながります。
訳抜け防止モード: テスト時間の間に、プレディションは地上の真実を取り替えます。 分布の変動につながります。
0.64
In order to overcome this, the actual ground truth and predictions are given to the decoder with some probability i and 1 − i respectively. これを克服するために、実際の基底真理と予測は、それぞれある確率 yi と 1 − yi を持つデコーダに与えられる。 0.67
While these methods rely on the recurrent neural networks, STGCN does not employ it since the RNNs iterations are slower on the traffic data for which the model was essentially designed. これらの手法はリカレントニューラルネットワークに依存しているが、STGCNはRNNのイテレーションが本質的にモデルが設計されたトラフィックデータよりも遅いため、それを使わない。 0.74
To overcome all the shortcomings of using recurrent networks, the STGCN implements the convolutional networks across the temporal component. 繰り返しネットワークを使用するすべての欠点を克服するために、STGCNは時間的コンポーネントにまたがる畳み込みネットワークを実装します。 0.73
Though the models are especially designed for traffic forecasting, they can be extended for other systems that can be modeled as spatio-temporal graphs. モデルは特にトラフィック予測のために設計されているが、時空間グラフとしてモデル化できる他のシステムにも拡張できる。 0.79
7 Future Directions The existing graph representation learning techniques have their own strengths about producing representations. 7 今後の方向 既存のグラフ表現学習技術には、表現を生成する上で独自の強みがある。 0.68
However, considering the scope we suggest the following directions for future work. しかし、その範囲を考えると、今後の作業の方向性は以下の通りです。 0.53
Although there have been some work [14], [7] in these directions, there is still a lot of significant work to be done. この方向には[14],[7]の作業がいくつかあるが,まだ多くの重要な作業が続けられている。 0.76
– First, as these techniques work primarily for static graphs, whereas many real life systems modeled as graphs are dynamic in nature. 第一に、これらのテクニックは主に静的グラフで機能するが、グラフとしてモデル化された現実のシステムの多くは本質的に動的である。 0.63
Considering the dynamicity of the graphs, it is important to learn the representations of the dynamic graphs. グラフの動的性を考慮すると、動的グラフの表現を学ぶことが重要である。 0.83
– Second, multi-layered graphs’ representations may need a different approach 第二に、多層グラフの表現は異なるアプローチを必要とするかもしれない 0.63
than the existing ones. – Thirdly, when there is diversity in the characteristics of the nodes in the graph, that is, the nodes exhibit heterogeneous behavior, the representations need to capture the variations in the working of the nodes. 既存のものよりも 第三に、グラフ内のノードの特性に多様性がある場合、すなわち、ノードが不均一な振る舞いを示す場合、表現はノードの動作の変動を捉える必要がある。 0.59
8 Conclusion In this paper, we have reviewed popular graph representation learning methods. 8 結論 本稿では,人気のあるグラフ表現学習手法について概説する。 0.73
These have been broadly categorized into spectral based methods and nonspectral based methods. これらはスペクトルベースの方法と非スペクトルベースの方法に広く分類されている。 0.65
The spectral based methods consider the spectrum of the graph in order to perform operations such as convolutions on it. スペクトルベース法は、その上で畳み込みのような操作を行うためにグラフのスペクトルを考慮する。
訳抜け防止モード: スペクトルベース法はグラフのスペクトルを順に考慮する 畳み込みのような操作を 行おうとしています
0.76
The non spectral based methods makes use of the information from neighborhood of nodes. 非スペクトルベースの手法は、ノードの近傍からの情報を利用する。 0.69
Each of the methods may have their own way of defining how the neighborhood information is aggregated. それぞれの手法は、どのように近隣情報を集約するかを定義する独自の方法を持つことができる。 0.65
We also discussed graph autoencoders, which learn the latent representations for the graphs and based on which they reconstructs the graph adjacency matrix back. また、グラフの潜在表現を学習し、グラフ隣接行列を再構築するグラフオートエンコーダについても検討した。 0.66
The variational autoencoders are also discussed, which are probabilistic models, which estimates the distribution of the data, from which the latent representation is chosen and the adjacency matrix is reconstructed. 変動オートエンコーダも議論され、これは確率モデルであり、データの分布を推定し、そこから潜在表現を選択し、隣接行列を再構築する。
訳抜け防止モード: また,確率モデルである変分オートエンコーダについても考察した。 潜在表現が選択されるデータの分布を推定します 隣接マトリックスが再構築されます
0.76
These autoencoders are helpful in the tasks such as link predictions, where it predicts the probability of any two nodes having an edge connecting them. これらのオートエンコーダはリンク予測のようなタスクで役立ち、エッジを持つ2つのノードが接続する確率を予測する。 0.73
We have also discussed some of the spatio-temporal graph また、時空間グラフについても議論しました。 0.58
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 19 グラフ表現の学習 19 0.85
Fig. 9. Future research directions フィギュア。 9. 今後の研究方向 0.68
neural networks that are used for the data that is modeled as spatio-tempoal graphs. 時空間グラフとしてモデル化されたデータに使用されるニューラルネットワーク。 0.80
The STGNNs use neural networks to include the spatial as well as the temporal dependencies in the graph. STGNNは、グラフの空間的および時間的依存関係を含むためにニューラルネットワークを使用する。 0.80
We further gave the future direction of research in this area. 我々はさらにこの分野の研究の今後の方向性を示した。 0.74
Real world examples that are modeled as dynamic graphs, can to be addressed using graph neural networks, which is an open area for research. 動的グラフとしてモデル化された実世界の例は、研究のためのオープンエリアであるグラフニューラルネットワークを使って対処できる。 0.87
Graph Neural Networks for multi-layered graphs and the graphs where different nodes have different physics behind their working are types of graphs other than static graphs, which need to be addressed using graph neural networks. 多層グラフのためのグラフニューラルネットワークと、異なるノードが異なる物理を持つグラフは、静的グラフ以外のグラフの種類であり、グラフニューラルネットワークを使用して対処する必要がある。 0.84
References 1. Bruna, J., Zaremba, W., Szlam, A., LeCun, Y.: Spectral networks and locally 参考文献 1. Bruna, J., Zaremba, W., Szlam, A., LeCun, Y.: Spectral network and local 0.80
connected networks on graphs. グラフ上の接続ネットワーク。 0.84
arXiv preprint arXiv:1312.6203 (2013) arXiv preprint arXiv:1312.6203 (2013) 0.75
2. Cho, K., Van Merri¨enboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., Bengio, Y.: Learning phrase representations using rnn encoder-decoder for statistical machine translation. 2. Cho, K., Van Merri senboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., Bengio, Y.: 統計機械翻訳にrnnエンコーダデコーダを用いたフレーズ表現の学習。 0.88
arXiv preprint arXiv:1406.1078 (2014) arXiv preprint arXiv:1406.1078 (2014) 0.75
3. Defferrard, M., Bresson, X., Vandergheynst, P.: Convolutional neural networks on graphs with fast localized spectral filtering. 3. Defferrard, M., Bresson, X., Vandergheynst, P.: スペクトルフィルタを高速にローカライズしたグラフ上の畳み込みニューラルネットワーク。 0.86
In: Advances in neural information processing systems. In: 神経情報処理システムの進歩。 0.74
pp. 3844–3852 (2016) pp. 3844–3852 (2016) 0.85
4. Gori, M., Monfardini, G., Scarselli, F.: A new model for learning in graph domains. 4. Gori、M.、Monfardini、G.、Scarselli、F.:グラフドメインで学習するための新しいモデル。 0.85
In: Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005. vol. in: 手続き。 2005年ieee international joint conference on neural networks, 2005. vol. 0.75
2, pp. 729–734 vol. 2、p。 729-734V。 0.64
2 (2005) 5. 2 (2005) 5. 0.85
Grover, A., Leskovec, J.: node2vec: Scalable feature learning for networks. Grover, A., Leskovec, J.: node2vec: ネットワークのためのスケーラブルな機能学習。 0.82
In: Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining. In: 知識発見とデータマイニングに関する第22回ACM SIGKDD国際会議の開催。 0.82
pp. 855–864 (2016) pp. 855–864 (2016) 0.85
英語(論文から抽出)日本語訳スコア
20 R. Joshi and S. Mishra 20 R. JoshiとS. Mishra 0.85
6. Hamilton, W., Ying, Z., Leskovec, J.: Inductive representation learning on large graphs. 6. Hamilton, W., Ying, Z., Leskovec, J.: 大きなグラフ上での帰納的表現学習。 0.85
In: Guyon, I., Luxburg, U.V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., Garnett, R. In: Guyon, I., Luxburg, U.V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., Garnett, R。 0.90
(eds.) Advances in Neural Information Processing Systems 30, pp. (eds)。 ニューラル情報処理システム30, pp.の進歩 0.73
1024–1034. 1024–1034. 0.71
Curran Associates, Inc. (2017), http://papers.nips.c c/ paper/6703-inductive -representation-lear ning-on-large-graphs .pdf Curran Associates, Inc. (2017), http://papers.nips.c c/ paper/6703-inductive -representation-on-l arge-graphs.pdf 0.44
7. Iiyama, Y., Cerminara, G., Gupta, A., Kieseler, J., Loncar, V., Pierini, M., Qasim, S.R., Rieger, M., Summers, S., Onsem, G.V., Wozniak, K., Ngadiuba, J., Guglielmo, G.D., Duarte, J., Harris, P., Rankin, D., Jindariani, S., Liu, M., Pedro, K., Tran, N., Kreinar, E., Wu, Z.: Distance-weighted graph neural networks on fpgas for real-time particle reconstruction in high energy physics. 7. Iiyama, Y., Cerminara, G., Gupta, A., Kieseler, J., Loncar, V., Pierini, M., Qasim, S.R., Rieger, M., Summers, S., Onsem, G.V., Wozniak, K., Ngadiuba, J., Guglielmo, G.D., Duarte, J., Harris, P., Rankin, D., Jindariani, S., Liu, M., Pedro, K., Tran, N., Kreinar, E., Wu, Z.: Fpgas上の距離重み付きグラフネットワークは、高エネルギー物理学におけるリアルタイムの磁気再構成のためのものです。 0.89
ArXiv abs/2008.03601 (2020) ArXiv abs/2008.03601 (2020) 0.71
8. Kingma, D.P., Welling, M.: Auto-encoding variational bayes. 8. Kingma, D.P., Welling, M.: 自動エンコード変分ベイ。 0.79
arXiv preprint arXiv プレプリント 0.83
arXiv:1312.6114 (2013) arXiv:1312.6114 (2013) 0.65
9. Kipf, T.N., Welling, M.: Semi-supervised classification with graph convolutional 9. Kipf, T.N., Welling, M.:グラフ畳み込みによる半監督分類 0.79
networks. arXiv preprint arXiv:1609.02907 (2016) ネットワーク。 arXiv preprint arXiv:1609.02907 (2016) 0.73
10. Kipf, T.N., Welling, M.: Variational graph auto-encoders. 10. Kipf, T.N., Welling, M.: 変分グラフオートエンコーダ 0.82
NIPS Workshop on NIPSワークショップに参加して 0.54
Bayesian Deep Learning (2016) Bayesian Deep Learning (2016) 0.85
11. Levie, R., Monti, F., Bresson, X., Bronstein, M.M. 11. Levie, R., Monti, F., Bresson, X., Bronstein, M.M. 0.90
: Cayleynets: Graph convolutional neural networks with complex rational spectral filters. : Cayleynets: 複雑な有理スペクトルフィルタを備えたグラフ畳み込みニューラルネットワーク。 0.84
IEEE Transactions on Signal Processing 67(1), 97–109 (2018) IEEE Transactions on Signal Processing 67(1), 97–109 (2018) 0.91
12. Li, Y., Yu, R., Shahabi, C., Liu, Y.: Diffusion convolutional recurrent neural net- 12. Li, Y., Yu, R., Shahabi, C., Liu, Y.: Diffusion Convolutional Recurrent Neural Net- 0.88
work: Data-driven traffic forecasting. 作業: データ駆動のトラフィック予測。 0.71
arXiv preprint arXiv:1707.01926 (2017) arXiv preprint arXiv:1707.01926 (2017) 0.75
13. Li, Y., Yu, R., Shahabi, C., Liu, Y.: Diffusion convolutional recurrent neural network: Data-driven traffic forecasting. 13. Li, Y., Yu, R., Shahabi, C., Liu, Y.: Diffusion convolutional Recurrent Neural Network: データ駆動トラフィック予測。 0.84
In: International Conference on Learning Representations (2018) in: international conference on learning representations (2018) 参加報告 0.87
14. Luo, W., Zhang, H., Yang, X., Bo, L., Yang, X., Li, Z., Qie, X., Ye, J.: Dynamic heterogeneous graph neural network for real-time event prediction. 14. Luo, W., Zhang, H., Yang, X., Bo, L., Yang, X., Li, Z., Qie, X., Ye, J.: リアルタイムイベント予測のための動的異種グラフニューラルネットワーク。 0.85
In: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 第26回ACM SIGKDD International Conference on Knowledge Discovery and Data Miningの開催。 0.67
p. 3213–3223. p. 3213-3223。 0.52
KDD ’20, Association for Computing Machinery, New York, NY, USA (2020). KDD’20, Association for Computing Machinery, New York, NY, USA (2020)。 0.80
https://doi.org/10.1 145/3394486.3403373, https://doi. https://doi.org/10.1 145/3394486.3403373, https://doi.org 0.39
org/10.1145/3394486. 3403373 org/10.1145/3394486. 3403373 0.24
15. Mallick, T., Kiran, M., Mohammed, B., Balaprakash, P.: Dynamic graph neural network for traffic forecasting in wide area networks. 15. Mallick, T., Kiran, M., Mohammed, B., Balaprakash, P.: 広域ネットワークにおけるトラフィック予測のための動的グラフニューラルネットワーク。 0.87
arXiv preprint arXiv:2008.12767 (2020) arXiv preprint arXiv:2008.12767 (2020) 0.75
16. Micheli, A.: Neural network for graphs: A contextual constructive approach. 16. Micheli, A.: グラフのためのニューラルネットワーク: コンテキスト構築的アプローチ。 0.83
IEEE Transactions on Neural Networks 20(3), 498–511 (2009) IEEE ニューラルネットワークに関する取引 20(3), 498–511 (2009) 0.83
17. Murphy, R.L., Srinivasan, B., Rao, V., Ribeiro, B.: Relational pooling for graph 17. Murphy, R.L., Srinivasan, B., Rao, V., Ribeiro, B.: グラフのリレーショナルプール 0.88
representations. arXiv preprint arXiv:1903.02541 (2019) 表現。 arXiv preprint arXiv:1903.02541 (2019) 0.64
18. Pan, S., Hu, R., Long, G., Jiang, J., Yao, L., Zhang, C.: Adversarially regularized 18. Pan, S., Hu, R., Long, G., Jiang, J., Yao, L., Zhang, C.: 逆正則化 0.85
graph autoencoder for graph embedding. グラフ埋め込み用のグラフオートエンコーダ。 0.74
In: IJCAI (2018) in: ijcai (2018) 0.61
19. Perozzi, B., Al-Rfou, R., Skiena, S.: Deepwalk: Online learning of social representations. 19. Perozzi, B., Al-Rfou, R., Skiena, S.: Deepwalk: ソーシャル表現のオンライン学習。 0.87
In: Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining. In: 知識発見とデータマイニングに関する第20回ACM SIGKDD国際会議の開催。 0.81
pp. 701–710 (2014) pp. 701–710 (2014) 0.85
20. Salha, G., Hennequin, R., Vazirgiannis, M.: Keep it simple: Graph autoencoders without graph convolutional networks. 20. Salha, G., Hennequin, R., Vazirgiannis, M.: グラフ畳み込みネットワークを持たないグラフオートエンコーダ。 0.78
Workshop on Graph Representation Learning, 33rd Conference on Neural Information Processing Systems (NeurIPS) (2019) 21. 第33回neural information processing systems(neurips)(201 9) 21. グラフ表現学習ワークショップ 0.63
Salha, G., Hennequin, R., Vazirgiannis, M.: Simple and effective graph autoencoders with one-hop linear models. Salha, G., Hennequin, R., Vazirgiannis, M.: 1ホップ線形モデルを持つ単純で効果的なグラフオートエンコーダ。 0.79
In: European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML-PKDD) (2020) In: European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECML-PKDD) (2020) 0.92
英語(論文から抽出)日本語訳スコア
Learning Graph Representations 21 グラフ表現の学習 21 0.85
22. Seo, Y., Defferrard, M., Vandergheynst, P., Bresson, X.: Structured sequence modeling with graph convolutional recurrent networks. 22. Seo, Y., Defferrard, M., Vandergheynst, P., Bresson, X.: グラフ畳み込みリカレントネットワークによる構造化シーケンスモデリング。 0.86
In: International Conference on Neural Information Processing. In: International Conference on Neural Information Processing に参加。 0.90
pp. 362–373. pp. 362–373. 0.78
Springer (2018) Springer (複数形 Springers) 0.57
23. Veliˇckovi´c, P., Cucurull, G., Casanova, A., Romero, A., Li`o, P., Bengio, Y.: Graph attention networks. 23. ヴェリシュコヴィ ́c, P., Cucurull, G., Casanova, A., Romero, A., Li`o, P., Bengio, Y.: Graph attention network。 0.85
In: International Conference on Learning Representations (2018), https://openreview.n et/forum?id=rJXMpikCZ In: International Conference on Learning Representations (2018), https://openreview.n et/forum?id=rJXMpikCZ 0.83
24. Weisfeiler, B., Lehman, A.A.: A reduction of a graph to a canonical form and an algebra arising during this reduction. 24. Weisfeiler, B., Lehman, A.A.: グラフの正規形への縮小と、この還元の間に生じる代数。 0.82
Nauchno-Technicheska ya Informatsia 2(9), 12–16 (1968) Nauchno-Technicheska ya Informatsia 2(9), 12–16 (1968) 0.94
25. Xu, K., Hu, W., Leskovec, J., Jegelka, S.: How powerful are graph neural networks? 25. Xu, K., Hu, W., Leskovec, J., Jegelka, S.: グラフニューラルネットワークはどの程度強力か? 0.85
In: International Conference on Learning Representations (2019), https: //openreview.net/for um?id=ryGs6iA5Km In: International Conference on Learning Representations (2019), https: //openreview.net/for um?id=ryGs6iA5Km 0.71
26. Yu, B., Yin, H., Zhu, Z.: Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting. 26. Yu, B., Yin, H., Zhu, Z.: 時空間グラフ畳み込みネットワーク: トラフィック予測のためのディープラーニングフレームワーク。 0.82
In: Proceedings of the 27th International Joint Conference on Artificial Intelligence (IJCAI) (2018) 第27回国際人工知能会議(IJCAI)の開催(2018年)。 0.57
27. Zhuang, C., Ma, Q.: Dual graph convolutional networks for graph-based semisupervised classification. 27. Zhuang, C., Ma, Q.: グラフに基づく半教師付き分類のためのデュアルグラフ畳み込みネットワーク。 0.79
In: Proceedings of the 2018 World Wide Web Conference. In: 2018 World Wide Web ConferenceのProceedings。 0.68
pp. 499–508 (2018) pp. 499–508 (2018) 0.85
                                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。