論文の概要: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- arxiv url: http://arxiv.org/abs/2309.14770v2
- Date: Sat, 3 Aug 2024 13:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 00:25:32.765102
- Title: KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation
- Title(参考訳): KERMIT:逆変換を用いた強化関係モデリングの知識グラフ補完
- Authors: Haotian Li, Bin Yu, Yuliang Wei, Kai Wang, Richard Yi Da Xu, Bailing Wang,
- Abstract要約: 大規模言語モデルを用いてコヒーレントな記述を生成し,クエリと回答のセマンティックなギャップを埋める。
また、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
提案手法は,WN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
- 参考スコア(独自算出の注目度): 19.31783654838732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) revolves around populating missing triples in a knowledge graph using available information. Text-based methods, which depend on textual descriptions of triples, often encounter difficulties when these descriptions lack sufficient information for accurate prediction-an issue inherent to the datasets and not easily resolved through modeling alone. To address this and ensure data consistency, we first use large language models (LLMs) to generate coherent descriptions, bridging the semantic gap between queries and answers. Secondly, we utilize inverse relations to create a symmetric graph, thereby providing augmented training samples for KGC. Additionally, we employ the label information inherent in knowledge graphs (KGs) to enhance the existing contrastive framework, making it fully supervised. These efforts have led to significant performance improvements on the WN18RR and FB15k-237 datasets. According to standard evaluation metrics, our approach achieves a 4.2% improvement in Hit@1 on WN18RR and a 3.4% improvement in Hit@3 on FB15k-237, demonstrating superior performance.
- Abstract(参考訳): 知識グラフ補完(KGC)は、利用可能な情報を使用して知識グラフに欠落した三つ子を投入する。
テキストベースの手法は、トリプルのテキスト記述に依存するが、これらの記述がデータセット固有の正確な予測に十分な情報がなく、モデリングだけでは容易に解決できない場合、しばしば困難に直面する。
この問題に対処し、データの一貫性を確保するために、まず大きな言語モデル(LLM)を使用して一貫性のある記述を生成し、クエリと回答のセマンティックなギャップを埋めます。
次に、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
さらに、知識グラフ(KG)に固有のラベル情報を用いて、既存のコントラストフレームワークを強化し、完全に管理する。
これらの取り組みにより、WN18RRとFB15k-237データセットのパフォーマンスが大幅に向上した。
標準評価指標によると,本手法はWN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
関連論文リスト
- Few-shot Knowledge Graph Relational Reasoning via Subgraph Adaptation [51.47994645529258]
Few-shot Knowledge Graph (KG) Reasoningは、KGにおける稀な関係に対して、目に見えない三つ子(すなわちクエリ三つ子)を予測することを目的としている。
本稿では,種々のサブグラフに文脈化グラフの情報を効果的に適応させる手法であるSAFER(Subgraph Adaptation for Few-shot Reasoning)を提案する。
論文 参考訳(メタデータ) (2024-06-19T21:40:35Z) - Exploring Large Language Models for Knowledge Graph Completion [17.139056629060626]
我々は知識グラフのトリプルをテキストシーケンスとみなし、知識グラフLLMと呼ばれる革新的なフレームワークを導入する。
提案手法では,三重項の実体的記述と関係的記述をプロンプトとして利用し,その応答を予測に利用する。
種々のベンチマーク知識グラフを用いた実験により,三重分類や関係予測といったタスクにおいて,本手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-08-26T16:51:17Z) - Graph Relation Aware Continual Learning [3.908470250825618]
連続グラフ学習(CGL)は、無限のグラフデータストリームから学習する問題を研究する。
我々は、縁の裏側にある潜伏関係を探索する関係発見モジュールからなるRAM-CGと呼ばれる関係認識適応モデルを設計する。
RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して2.2%、6.9%、および6.6%の精度向上を提供する。
論文 参考訳(メタデータ) (2023-08-16T09:53:20Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Knowledge Graph Refinement based on Triplet BERT-Networks [0.0]
本稿では,知識グラフ内のエンティティや関係に関する情報を集約する埋め込み空間を作成するトランスフォーマーベースの三重項ネットワークを採用する。
事実からテキストシーケンスを生成し、事前訓練されたトランスフォーマーベースの言語モデルのトリプルトネットワークを微調整する。
これら2つの改良作業の最先端性能に対して, GilBERT は, より優れた, あるいは同等な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-18T19:01:21Z) - VEM$^2$L: A Plug-and-play Framework for Fusing Text and Structure
Knowledge on Sparse Knowledge Graph Completion [14.537509860565706]
本稿では,テキストから抽出した知識と構造化メッセージから抽出した知識を統一化するための,スパース知識グラフ上のプラグイン・アンド・プレイ・フレームワーク VEM2L を提案する。
具体的には、モデルによって得られた知識を2つの非重複部分に分割する。
また、モデルの一般化能力を融合させるために、変分EMアルゴリズムによって証明された新しい融合戦略を提案する。
論文 参考訳(メタデータ) (2022-07-04T15:50:21Z) - Knowledge Graph Completion with Text-aided Regularization [2.8361571014635407]
知識グラフ補完は、可能なエンティティを推定することによって知識グラフ/ベースを拡張するタスクである。
従来のアプローチは主に、グラフ固有の既存のグラフィカル情報の使用に重点を置いている。
我々は、既存のkg埋め込みフレームワークがより良い予測結果に達するのを助けるために、抽出または生のテキスト情報を使用する多くの方法を試みる。
論文 参考訳(メタデータ) (2021-01-22T06:10:09Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。