論文の概要: Efficient Relational Context Perception for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2501.00397v1
- Date: Tue, 31 Dec 2024 11:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:41.338929
- Title: Efficient Relational Context Perception for Knowledge Graph Completion
- Title(参考訳): 知識グラフ補完のための関係文脈知覚の効率化
- Authors: Wenkai Tu, Guojia Wan, Zhengchun Shang, Bo Du,
- Abstract要約: 知識グラフ(KG)は知識の構造化された表現を提供するが、しばしば不完全性の課題に悩まされる。
従来の知識グラフ埋め込みモデルは、表現力のある特徴を捉える能力に制限がある。
逐次情報をモデル化し,動的文脈の学習を可能にする三重受容アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 25.903926643251076
- License:
- Abstract: Knowledge Graphs (KGs) provide a structured representation of knowledge but often suffer from challenges of incompleteness. To address this, link prediction or knowledge graph completion (KGC) aims to infer missing new facts based on existing facts in KGs. Previous knowledge graph embedding models are limited in their ability to capture expressive features, especially when compared to deeper, multi-layer models. These approaches also assign a single static embedding to each entity and relation, disregarding the fact that entities and relations can exhibit different behaviors in varying graph contexts. Due to complex context over a fact triple of a KG, existing methods have to leverage complex non-linear context encoder, like transformer, to project entity and relation into low dimensional representations, resulting in high computation cost. To overcome these limitations, we propose Triple Receptance Perception (TRP) architecture to model sequential information, enabling the learning of dynamic context of entities and relations. Then we use tensor decomposition to calculate triple scores, providing robust relational decoding capabilities. This integration allows for more expressive representations. Experiments on benchmark datasets such as YAGO3-10, UMLS, FB15k, and FB13 in link prediction and triple classification tasks demonstrate that our method performs better than several state-of-the-art models, proving the effectiveness of the integration.
- Abstract(参考訳): 知識グラフ(KG)は知識の構造化された表現を提供するが、しばしば不完全性の課題に悩まされる。
これを解決するために、リンク予測や知識グラフ補完(KGC)は、KGの既存の事実に基づいて、行方不明の新しい事実を推測することを目的としている。
従来の知識グラフ埋め込みモデルは、特により深い多層モデルと比較して、表現力のある特徴を捉える能力に制限がある。
これらのアプローチはまた、エンティティとリレーションが異なるグラフコンテキストで異なる振る舞いを示すという事実を無視して、各エンティティとリレーションに単一の静的埋め込みを割り当てる。
KGのファクトトリプル上の複雑なコンテキストのため、既存の手法では、トランスフォーマーのような複雑な非線形コンテキストエンコーダをプロジェクトエンティティや低次元表現への関係に活用し、計算コストが高い。
これらの制約を克服するために、連続した情報をモデル化し、実体と関係の動的文脈の学習を可能にするトリプル・レセプタンス・パーセプション(TRP)アーキテクチャを提案する。
次に、テンソル分解を用いて3つのスコアを計算し、ロバストなリレーショナル復号機能を提供する。
この統合により、より表現力のある表現が可能になる。
YAGO3-10,UMLS,FB15k,FB13などのベンチマークデータセットをリンク予測および3重分類タスクで実験した結果,本手法は複数の最先端モデルよりも優れた性能を示し,統合の有効性が証明された。
関連論文リスト
- A Contextualized BERT model for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)のためのコンテキスト化BERTモデルを提案する。
本モデルでは,エンティティ記述や負の三重項サンプリングの必要性を排除し,計算要求を低減し,性能を向上する。
FB15k-237とWN18RRでは,Hit@1が5.3%向上し,4.88%向上した。
論文 参考訳(メタデータ) (2024-12-15T02:03:16Z) - Inference over Unseen Entities, Relations and Literals on Knowledge Graphs [1.7474352892977463]
知識グラフ埋め込みモデルは、様々な課題に対処するために、トランスダクティブな設定でうまく適用されている。
本稿では、エンティティとリレーションのバイトペアエンコードされたサブワード単位のシーケンスから三重埋め込みを構築するための注意的バイトペアエンコーディング層(BytE)を提案する。
BytEは、知識グラフの埋め込みモデルに、エンティティやリレーションではなくサブワード単位の埋め込みを学習させるため、重み付けによる大規模な機能の再利用につながる。
論文 参考訳(メタデータ) (2024-10-09T10:20:54Z) - iText2KG: Incremental Knowledge Graphs Construction Using Large Language Models [0.7165255458140439]
iText2KGは、後処理なしで漸進的にトピックに依存しない知識グラフを構築する方法である。
提案手法は,3つのシナリオにまたがるベースライン手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-05T06:49:14Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Knowledge Graph Refinement based on Triplet BERT-Networks [0.0]
本稿では,知識グラフ内のエンティティや関係に関する情報を集約する埋め込み空間を作成するトランスフォーマーベースの三重項ネットワークを採用する。
事実からテキストシーケンスを生成し、事前訓練されたトランスフォーマーベースの言語モデルのトリプルトネットワークを微調整する。
これら2つの改良作業の最先端性能に対して, GilBERT は, より優れた, あるいは同等な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-18T19:01:21Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Learning Representations of Entities and Relations [0.0]
この論文は,リンク予測タスクに取り組むことを目的とした知識グラフ表現の改善に焦点を当てている。
最初のコントリビューションはHypERであり、リンク予測性能を単純化し改善する畳み込みモデルである。
第2のコントリビューションは比較的単純な線形モデルであるTuckERで、このモデルが導入された時点では、最先端のリンク予測性能が得られた。
第3の貢献は、双曲空間に埋め込まれた最初のマルチリレーショナルグラフ表現モデルである MuRP である。
論文 参考訳(メタデータ) (2022-01-31T09:24:43Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。