論文の概要: Graph Edit Distance Learning via Different Attention
- arxiv url: http://arxiv.org/abs/2308.13871v1
- Date: Sat, 26 Aug 2023 13:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 18:25:43.107206
- Title: Graph Edit Distance Learning via Different Attention
- Title(参考訳): 異なる注意によるグラフ編集距離学習
- Authors: Jiaxi Lv, Liang Zhang, Yi Huang, Jiancheng Huang, Shifeng Chen
- Abstract要約: 本稿では,新しいグラフレベル融合モジュールdifferate Attention(DiffAtt)を提案する。
DiffAttは2つのグラフレベルの埋め込みの違いを注目のメカニズムとして使用し、2つのグラフのグラフ構造の違いをキャプチャする。
DiffAtt に基づいた新しい GSC 手法である Graph Edit Distance Learning via Different Attention (REDRAFT) を提案する。
- 参考スコア(独自算出の注目度): 11.79198639644178
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, more and more research has focused on using Graph Neural Networks
(GNN) to solve the Graph Similarity Computation problem (GSC), i.e., computing
the Graph Edit Distance (GED) between two graphs. These methods treat GSC as an
end-to-end learnable task, and the core of their architecture is the feature
fusion modules to interact with the features of two graphs. Existing methods
consider that graph-level embedding is difficult to capture the differences in
local small structures between two graphs, and thus perform fine-grained
feature fusion on node-level embedding can improve the accuracy, but leads to
greater time and memory consumption in the training and inference phases.
However, this paper proposes a novel graph-level fusion module Different
Attention (DiffAtt), and demonstrates that graph-level fusion embeddings can
substantially outperform these complex node-level fusion embeddings. We posit
that the relative difference structure of the two graphs plays an important
role in calculating their GED values. To this end, DiffAtt uses the difference
between two graph-level embeddings as an attentional mechanism to capture the
graph structural difference of the two graphs. Based on DiffAtt, a new GSC
method, named Graph Edit Distance Learning via Different Attention (REDRAFT),
is proposed, and experimental results demonstrate that REDRAFT achieves
state-of-the-art performance in 23 out of 25 metrics in five benchmark
datasets. Especially on MSE, it respectively outperforms the second best by
19.9%, 48.8%, 29.1%, 31.6%, and 2.2%. Moreover, we propose a quantitative test
Remaining Subgraph Alignment Test (RESAT) to verify that among all graph-level
fusion modules, the fusion embedding generated by DiffAtt can best capture the
structural differences between two graphs.
- Abstract(参考訳): 近年、グラフ類似性計算問題(GSC)、すなわちグラフ編集距離(GED)を2つのグラフ間で計算するためにグラフニューラルネットワーク(GNN)の使用に注目が集まっている。
これらの手法はGSCをエンドツーエンドで学習可能なタスクとして扱い、アーキテクチャの中核は2つのグラフの特徴と相互作用する機能融合モジュールである。
既存手法では、グラフレベルの埋め込みは2つのグラフ間の局所的な小さな構造の違いを捉えることは困難であり、ノードレベルの埋め込みにおける微細な特徴融合は精度を向上させることができるが、トレーニングと推論フェーズにおける時間とメモリ消費の増大につながる。
しかし,本論文ではグラフレベル融合モジュールの注目度が異なること(diffatt)を提案し,グラフレベルの融合埋め込みがこれらの複雑なノードレベルの融合埋め込みを大幅に上回ることを示した。
2つのグラフの相対差構造がGED値を計算する上で重要な役割を果たしていると仮定する。
この目的のために、DiffAttは2つのグラフレベルの埋め込みの違いを注意機構として使用し、2つのグラフのグラフ構造の違いを捉える。
DiffAtt に基づく新しい GSC 手法である Graph Edit Distance Learning via Different Attention (REDRAFT) が提案され, REDRAFT が5つのベンチマークデータセットの25項目中23項目で最先端のパフォーマンスを達成したことを示す実験結果が得られた。
特にMSEでは、それぞれ19.9%、48.8%、29.1%、31.6%、および2.2%で2位である。
さらに,すべてのグラフレベル融合モジュールのうち,diffatt が生成する融合埋め込みが2つのグラフ間の構造的差異を最善に把握できることを検証するために,定量的テスト残差部分グラフアライメントテスト(resat)を提案する。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。