論文の概要: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- arxiv url: http://arxiv.org/abs/2309.14770v2
- Date: Sat, 3 Aug 2024 13:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 00:25:32.765102
- Title: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- Title(参考訳): KERMIT:逆変換を用いた強化関係モデリングの知識グラフ補完
- Authors: Haotian Li, Bin Yu, Yuliang Wei, Kai Wang, Richard Yi Da Xu, Bailing Wang,
- Abstract要約: 大規模言語モデルを用いてコヒーレントな記述を生成し,クエリと回答のセマンティックなギャップを埋める。
また、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
提案手法は,WN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
- 参考スコア(独自算出の注目度): 19.31783654838732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) revolves around populating missing triples in a knowledge graph using available information. Text-based methods, which depend on textual descriptions of triples, often encounter difficulties when these descriptions lack sufficient information for accurate prediction-an issue inherent to the datasets and not easily resolved through modeling alone. To address this and ensure data consistency, we first use large language models (LLMs) to generate coherent descriptions, bridging the semantic gap between queries and answers. Secondly, we utilize inverse relations to create a symmetric graph, thereby providing augmented training samples for KGC. Additionally, we employ the label information inherent in knowledge graphs (KGs) to enhance the existing contrastive framework, making it fully supervised. These efforts have led to significant performance improvements on the WN18RR and FB15k-237 datasets. According to standard evaluation metrics, our approach achieves a 4.2% improvement in Hit@1 on WN18RR and a 3.4% improvement in Hit@3 on FB15k-237, demonstrating superior performance.
- Abstract(参考訳): 知識グラフ補完(KGC)は、利用可能な情報を使用して知識グラフに欠落した三つ子を投入する。
テキストベースの手法は、トリプルのテキスト記述に依存するが、これらの記述がデータセット固有の正確な予測に十分な情報がなく、モデリングだけでは容易に解決できない場合、しばしば困難に直面する。
この問題に対処し、データの一貫性を確保するために、まず大きな言語モデル(LLM)を使用して一貫性のある記述を生成し、クエリと回答のセマンティックなギャップを埋めます。
次に、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
さらに、知識グラフ(KG)に固有のラベル情報を用いて、既存のコントラストフレームワークを強化し、完全に管理する。
これらの取り組みにより、WN18RRとFB15k-237データセットのパフォーマンスが大幅に向上した。
標準評価指標によると,本手法はWN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
関連論文リスト
- MUSE: Integrating Multi-Knowledge for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)は、欠落した(リレーション)部分(ヘッドエンティティ)--(リレーション]->(テールエンティティ)三重項を予測することを目的としている。
既存のKGCメソッドのほとんどは、単一の特徴(例えば、関係型)やサブグラフアグリゲーションに焦点を当てている。
本稿では,知識認識型推論モデル(MUSE)を提案する。
論文 参考訳(メタデータ) (2024-09-26T04:48:20Z) - Enhancing Heterogeneous Knowledge Graph Completion with a Novel GAT-based Approach [3.8357926394952306]
異種知識グラフのための新しいGATベースの知識グラフ補完法を提案する。
GATHには2つの異なるアテンションネットワークモジュールが組み込まれている。
我々のモデルは、FB15K-237データセットで5.2%と5.2%、WN18RRデータセットで4.5%と14.6%の性能を改善する。
論文 参考訳(メタデータ) (2024-08-05T13:28:51Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Knowledge Graph Refinement based on Triplet BERT-Networks [0.0]
本稿では,知識グラフ内のエンティティや関係に関する情報を集約する埋め込み空間を作成するトランスフォーマーベースの三重項ネットワークを採用する。
事実からテキストシーケンスを生成し、事前訓練されたトランスフォーマーベースの言語モデルのトリプルトネットワークを微調整する。
これら2つの改良作業の最先端性能に対して, GilBERT は, より優れた, あるいは同等な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-18T19:01:21Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - A Simple But Powerful Graph Encoder for Temporal Knowledge Graph
Completion [13.047205680129094]
時間知識グラフ(TKG)のための単純だが強力なグラフエンコーダTARGCNを提案する。
我々のモデルは,最先端モデルと比較して,GDELTデータセットに対して42%以上の相対的な改善を達成できる。
ICEWS05-15データセットでは18.5%のパラメータで最強のベースラインを上回っている。
論文 参考訳(メタデータ) (2021-12-14T23:30:42Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z) - Investigating Pretrained Language Models for Graph-to-Text Generation [55.55151069694146]
Graph-to-text生成は、グラフベースのデータから流動的なテキストを生成することを目的としている。
本稿では,3つのグラフ領域,つまり表現,ウィキペディア知識グラフ(KG),科学的なKGについて検討する。
我々は, PLM の BART と T5 が新たな最先端の成果を達成し, タスク適応型事前学習戦略が性能をさらに向上することを示す。
論文 参考訳(メタデータ) (2020-07-16T16:05:34Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。