論文の概要: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- arxiv url: http://arxiv.org/abs/2309.14770v2
- Date: Sat, 3 Aug 2024 13:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 00:25:32.765102
- Title: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- Title(参考訳): KERMIT:逆変換を用いた強化関係モデリングの知識グラフ補完
- Authors: Haotian Li, Bin Yu, Yuliang Wei, Kai Wang, Richard Yi Da Xu, Bailing Wang,
- Abstract要約: 大規模言語モデルを用いてコヒーレントな記述を生成し,クエリと回答のセマンティックなギャップを埋める。
また、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
提案手法は,WN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
- 参考スコア(独自算出の注目度): 19.31783654838732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) revolves around populating missing triples in a knowledge graph using available information. Text-based methods, which depend on textual descriptions of triples, often encounter difficulties when these descriptions lack sufficient information for accurate prediction-an issue inherent to the datasets and not easily resolved through modeling alone. To address this and ensure data consistency, we first use large language models (LLMs) to generate coherent descriptions, bridging the semantic gap between queries and answers. Secondly, we utilize inverse relations to create a symmetric graph, thereby providing augmented training samples for KGC. Additionally, we employ the label information inherent in knowledge graphs (KGs) to enhance the existing contrastive framework, making it fully supervised. These efforts have led to significant performance improvements on the WN18RR and FB15k-237 datasets. According to standard evaluation metrics, our approach achieves a 4.2% improvement in Hit@1 on WN18RR and a 3.4% improvement in Hit@3 on FB15k-237, demonstrating superior performance.
- Abstract(参考訳): 知識グラフ補完(KGC)は、利用可能な情報を使用して知識グラフに欠落した三つ子を投入する。
テキストベースの手法は、トリプルのテキスト記述に依存するが、これらの記述がデータセット固有の正確な予測に十分な情報がなく、モデリングだけでは容易に解決できない場合、しばしば困難に直面する。
この問題に対処し、データの一貫性を確保するために、まず大きな言語モデル(LLM)を使用して一貫性のある記述を生成し、クエリと回答のセマンティックなギャップを埋めます。
次に、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
さらに、知識グラフ(KG)に固有のラベル情報を用いて、既存のコントラストフレームワークを強化し、完全に管理する。
これらの取り組みにより、WN18RRとFB15k-237データセットのパフォーマンスが大幅に向上した。
標準評価指標によると,本手法はWN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
関連論文リスト
- Efficient Relational Context Perception for Knowledge Graph Completion [25.903926643251076]
知識グラフ(KG)は知識の構造化された表現を提供するが、しばしば不完全性の課題に悩まされる。
従来の知識グラフ埋め込みモデルは、表現力のある特徴を捉える能力に制限がある。
逐次情報をモデル化し,動的文脈の学習を可能にする三重受容アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-31T11:25:58Z) - An Automatic Graph Construction Framework based on Large Language Models for Recommendation [49.51799417575638]
本稿では,大規模言語モデルに基づく自動グラフ構築フレームワークであるAutoGraphを紹介する。
LLMはユーザ好みとアイテムの知識を推論し、セマンティックベクターとして符号化する。
潜在因子は、ユーザ/イテムノードをリンクする余分なノードとして組み込まれ、結果として、深いグローバルビューセマンティクスを持つグラフとなる。
論文 参考訳(メタデータ) (2024-12-24T07:51:29Z) - A Contextualized BERT model for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)のためのコンテキスト化BERTモデルを提案する。
本モデルでは,エンティティ記述や負の三重項サンプリングの必要性を排除し,計算要求を低減し,性能を向上する。
FB15k-237とWN18RRでは,Hit@1が5.3%向上し,4.88%向上した。
論文 参考訳(メタデータ) (2024-12-15T02:03:16Z) - MUSE: Integrating Multi-Knowledge for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)は、欠落した(リレーション)部分(ヘッドエンティティ)--(リレーション]->(テールエンティティ)三重項を予測することを目的としている。
既存のKGCメソッドのほとんどは、単一の特徴(例えば、関係型)やサブグラフアグリゲーションに焦点を当てている。
本稿では,知識認識型推論モデル(MUSE)を提案する。
論文 参考訳(メタデータ) (2024-09-26T04:48:20Z) - Enhancing Heterogeneous Knowledge Graph Completion with a Novel GAT-based Approach [3.8357926394952306]
異種知識グラフのための新しいGATベースの知識グラフ補完法を提案する。
GATHには2つの異なるアテンションネットワークモジュールが組み込まれている。
我々のモデルは、FB15K-237データセットで5.2%と5.2%、WN18RRデータセットで4.5%と14.6%の性能を改善する。
論文 参考訳(メタデータ) (2024-08-05T13:28:51Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z) - Investigating Pretrained Language Models for Graph-to-Text Generation [55.55151069694146]
Graph-to-text生成は、グラフベースのデータから流動的なテキストを生成することを目的としている。
本稿では,3つのグラフ領域,つまり表現,ウィキペディア知識グラフ(KG),科学的なKGについて検討する。
我々は, PLM の BART と T5 が新たな最先端の成果を達成し, タスク適応型事前学習戦略が性能をさらに向上することを示す。
論文 参考訳(メタデータ) (2020-07-16T16:05:34Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。