論文の概要: Graph Neural Distance Metric Learning with Graph-Bert
- arxiv url: http://arxiv.org/abs/2002.03427v1
- Date: Sun, 9 Feb 2020 18:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:08:14.059439
- Title: Graph Neural Distance Metric Learning with Graph-Bert
- Title(参考訳): Graph-Bertを用いたグラフニューラル距離距離学習
- Authors: Jiawei Zhang
- Abstract要約: 我々は、新しいグラフニューラルネットワークに基づく距離距離距離学習アプローチ、すなわちGB-DISTANCE(GRAPH-BERTベースのニューラル距離)を導入する。
GB-DISTANCEは、事前訓練された Graph-BERT モデルに基づいて、グラフ表現を効果的に学習することができる。
さらに、GB-DISTANCEは距離メートル法の基本特性も維持できる。
- 参考スコア(独自算出の注目度): 10.879701971582502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph distance metric learning serves as the foundation for many graph
learning problems, e.g., graph clustering, graph classification and graph
matching. Existing research works on graph distance metric (or graph kernels)
learning fail to maintain the basic properties of such metrics, e.g.,
non-negative, identity of indiscernibles, symmetry and triangle inequality,
respectively. In this paper, we will introduce a new graph neural network based
distance metric learning approaches, namely GB-DISTANCE (GRAPH-BERT based
Neural Distance). Solely based on the attention mechanism, GB-DISTANCE can
learn graph instance representations effectively based on a pre-trained
GRAPH-BERT model. Different from the existing supervised/unsupervised metrics,
GB-DISTANCE can be learned effectively in a semi-supervised manner. In
addition, GB-DISTANCE can also maintain the distance metric basic properties
mentioned above. Extensive experiments have been done on several benchmark
graph datasets, and the results demonstrate that GB-DISTANCE can out-perform
the existing baseline methods, especially the recent graph neural network model
based graph metrics, with a significant gap in computing the graph distance.
- Abstract(参考訳): グラフ距離メトリック学習は、グラフクラスタリング、グラフ分類、グラフマッチングなど、多くのグラフ学習問題の基盤となっている。
グラフ距離メトリック(またはグラフカーネル)学習に関する既存の研究は、これらのメトリクスの基本的な性質(例えば、非負、識別不能、対称性、三角不等式)を維持することができない。
本稿では,新しいグラフニューラルネットワークを用いた距離距離距離学習手法,すなわちGB-DISTANCE(GRAPH-BERTベースニューラルディスタンス)を紹介する。
注意機構のみに基づいて、gb距離は事前学習されたグラフベルトモデルに基づいて、グラフインスタンス表現を効果的に学習することができる。
既存の教師なし/教師なしのメトリクスとは異なり、GB-DISTANCEは半教師付きで効果的に学習することができる。
さらに、GB-DISTANCEは上記の距離計量の基本特性も維持できる。
いくつかのベンチマークグラフデータセットで広範な実験が行われ、その結果、gb距離は既存のベースラインメソッド、特に最近のグラフニューラルネットワークモデルに基づくグラフメトリクスよりも優れており、グラフ距離を計算する上で大きなギャップがあることが示されている。
関連論文リスト
- Parametric Graph Representations in the Era of Foundation Models: A Survey and Position [69.48708136448694]
グラフは、包括的なリレーショナルデータをモデル化するために、過去数十年間、ビッグデータとAIで広く使われてきた。
有意義なグラフ法則の同定は、様々な応用の有効性を著しく向上させることができる。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - Graph Neural Networks with a Distribution of Parametrized Graphs [27.40566674759208]
複数のグラフをパラメータ化して生成するために潜在変数を導入する。
予測最大化フレームワークにおいて,ネットワークパラメータの最大推定値を得る。
論文 参考訳(メタデータ) (2023-10-25T06:38:24Z) - Extended Graph Assessment Metrics for Graph Neural Networks [13.49677006107642]
回帰タスクと連続隣接行列のための拡張グラフアセスメントメトリクス(GAM)を導入する。
異なる医学集団グラフと異なる学習環境下で、これらの指標とモデル性能の相関関係を示す。
論文 参考訳(メタデータ) (2023-07-13T13:55:57Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Learning Graph Edit Distance by Graph Neural Networks [3.002973807612758]
本稿では,グラフ編集距離の従来の近似と深度学習の進歩を組み合わせた新しいフレームワークを提案する。
提案手法は,グラフ構造を捉えるためにメッセージパッシングニューラルネットワークを用いており,その情報を利用して距離計算を行う。
論文 参考訳(メタデータ) (2020-08-17T21:49:59Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z) - Graph-Bert: Only Attention is Needed for Learning Graph Representations [22.031852733026]
支配的なグラフニューラルネットワーク(GNN)はグラフリンクをオーバーレイに処理し、重大なパフォーマンス問題を引き起こした。
本稿では,新しいグラフニューラルネットワークである Graph-BERT (Graph based BERT) を紹介する。
実験の結果, Graph-BERTは学習効率と効率の両方で既存のGNNより優れていた。
論文 参考訳(メタデータ) (2020-01-15T05:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。