論文の概要: DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network
- arxiv url: http://arxiv.org/abs/2108.09628v1
- Date: Sun, 22 Aug 2021 04:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:50:31.867055
- Title: DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network
- Title(参考訳): DisenKGAT:分散グラフ注意ネットワークを用いた知識グラフ埋め込み
- Authors: Junkang Wu, Wentao Shi, Xuezhi Cao, Jiawei Chen, Wenqiang Lei, Fuzheng
Zhang, Wei Wu and Xiangnan He
- Abstract要約: 本稿では,知識グラフのための新しいDistangled Knowledge Graph Attention Network (DisenKGAT)を提案する。
DisenKGATは、マイクロディケンジメントとマクロディケンジメントの両方を使用して、知識グラフの背後にある表現を利用する。
私たちの仕事は、様々なスコア関数に適応する強力な堅牢性と柔軟性を持っています。
- 参考スコア(独自算出の注目度): 48.38954651216983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) has become a focus of attention across deep
learning community owing to its excellent contribution to numerous downstream
tasks. Although recently have witnessed a surge of work on KGC, they are still
insufficient to accurately capture complex relations, since they adopt the
single and static representations. In this work, we propose a novel
Disentangled Knowledge Graph Attention Network (DisenKGAT) for KGC, which
leverages both micro-disentanglement and macro-disentanglement to exploit
representations behind Knowledge graphs (KGs). To achieve
micro-disentanglement, we put forward a novel relation-aware aggregation to
learn diverse component representation. For macro-disentanglement, we leverage
mutual information as a regularization to enhance independence. With the
assistance of disentanglement, our model is able to generate adaptive
representations in terms of the given scenario. Besides, our work has strong
robustness and flexibility to adapt to various score functions. Extensive
experiments on public benchmark datasets have been conducted to validate the
superiority of DisenKGAT over existing methods in terms of both accuracy and
explainability.
- Abstract(参考訳): 知識グラフ補完(KGC)は、多くの下流タスクへの優れた貢献により、ディープラーニングコミュニティ全体の注目を集めている。
最近、KGCの研究が急増しているのを目撃したが、それらは単一の静的表現を採用するため、複雑な関係を正確に捉えるには不十分である。
本研究では,知識グラフ(kgs)の背後にある表現を活用し,マイクロ・ディエンタングル化とマクロ・ディエンタングル化を両立させた,新たな知識グラフアテンションネットワーク(disenkgat)を提案する。
マイクロディスタングルを実現するために,多様なコンポーネント表現を学習するための新しい関係認識アグリゲーションを提案する。
マクロ・ディスタングルメントでは、相互情報を正規化として利用し、独立性を高める。
絡み合いの助けを借りて、モデルは与えられたシナリオの観点で適応表現を生成することができる。
さらに、当社の作業は、さまざまなスコア機能に適応する強力な堅牢性と柔軟性を備えています。
既存の手法よりも精度と説明可能性の両面でDisenKGATの優位性を検証するために,公開ベンチマークデータセットの大規模な実験が行われた。
関連論文リスト
- Beyond Entity Alignment: Towards Complete Knowledge Graph Alignment via Entity-Relation Synergy [14.459419325027612]
知識グラフアライメントは、個々の知識グラフの制限に対処するために、複数のソースからの知識を統合することを目的としている。
既存のモデルは、主にクロスグラフエンティティのリンクを強調するが、KG間の関係の整合性を見落としている。
本稿では,2つのサブタスクを反復的に最適化する新しい予測最大化モデルEREMを提案する。
論文 参考訳(メタデータ) (2024-07-25T03:40:09Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Normalizing Flow-based Neural Process for Few-Shot Knowledge Graph
Completion [69.55700751102376]
FKGC (Few-shot Knowledge Graph completion) は、失明した事実を、無意味な関連のある事実で予測することを目的としている。
既存のFKGC手法はメートル法学習やメタラーニングに基づいており、しばしば分布外や過度に適合する問題に悩まされる。
本稿では,数ショット知識グラフ補完(NP-FKGC)のためのフローベースニューラルプロセスの正規化を提案する。
論文 参考訳(メタデータ) (2023-04-17T11:42:28Z) - Efficient Relation-aware Neighborhood Aggregation in Graph Neural Networks via Tensor Decomposition [4.041834517339835]
グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ新しい知識グラフを提案する。
我々のモデルは、関係型によって定義される低ランクテンソルの射影行列を用いて、隣り合う実体の表現を強化する。
我々は,グラフ処理に固有の1-k-kエンコーダ法のトレーニング制限を緩和するために,コントラスト学習にインスパイアされたトレーニング戦略を採用する。
論文 参考訳(メタデータ) (2022-12-11T19:07:34Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - KRACL: Contrastive Learning with Graph Context Modeling for Sparse
Knowledge Graph Completion [37.92814873958519]
知識グラフ埋め込み (KGE) は、エンティティと関係を低次元空間にマッピングすることを目的としており、知識グラフ補完のためのテキストファクト標準となっている。
既存のKGE手法の多くは、知識グラフの頻度が低いエンティティを予測しにくいため、スパーシティの課題に悩まされている。
グラフコンテキストとコントラスト学習を用いて,KGの広がりを緩和する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-16T09:17:40Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。