論文の概要: Leveraging Pre-trained Language Models for Time Interval Prediction in
Text-Enhanced Temporal Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2309.16357v1
- Date: Thu, 28 Sep 2023 11:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 14:46:55.679253
- Title: Leveraging Pre-trained Language Models for Time Interval Prediction in
Text-Enhanced Temporal Knowledge Graphs
- Title(参考訳): テキスト強調時間知識グラフにおける時間間隔予測のための事前学習言語モデルの活用
- Authors: Duygu Sezen Islakoglu, Mel Chekol, Yannis Velegrakis
- Abstract要約: 本稿では,テキスト強調時間知識グラフ補完のための事前学習言語モデル(PLM)のパワーを利用するTEMTという新しいフレームワークを提案する。
従来のアプローチとは異なり、TEMTは異なる時間ポイント間の依存関係を効果的にキャプチャし、目に見えないエンティティの予測を可能にする。
- 参考スコア(独自算出の注目度): 1.4916971861796382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most knowledge graph completion (KGC) methods learn latent representations of
entities and relations of a given graph by mapping them into a vector space.
Although the majority of these methods focus on static knowledge graphs, a
large number of publicly available KGs contain temporal information stating the
time instant/period over which a certain fact has been true. Such graphs are
often known as temporal knowledge graphs. Furthermore, knowledge graphs may
also contain textual descriptions of entities and relations. Both temporal
information and textual descriptions are not taken into account during
representation learning by static KGC methods, and only structural information
of the graph is leveraged. Recently, some studies have used temporal
information to improve link prediction, yet they do not exploit textual
descriptions and do not support inductive inference (prediction on entities
that have not been seen in training).
We propose a novel framework called TEMT that exploits the power of
pre-trained language models (PLMs) for text-enhanced temporal knowledge graph
completion. The knowledge stored in the parameters of a PLM allows TEMT to
produce rich semantic representations of facts and to generalize on previously
unseen entities. TEMT leverages textual and temporal information available in a
KG, treats them separately, and fuses them to get plausibility scores of facts.
Unlike previous approaches, TEMT effectively captures dependencies across
different time points and enables predictions on unseen entities. To assess the
performance of TEMT, we carried out several experiments including time interval
prediction, both in transductive and inductive settings, and triple
classification. The experimental results show that TEMT is competitive with the
state-of-the-art.
- Abstract(参考訳): ほとんどの知識グラフ補完(KGC)法は、与えられたグラフの実体と関係の潜在表現をベクトル空間にマッピングすることで学習する。
これらの手法の大部分は静的知識グラフに焦点をあてるが、公開されているKGの多くは、ある事実が真実である時点/時期を示す時間情報を含んでいる。
このようなグラフは時相知識グラフと呼ばれることが多い。
さらに、知識グラフは、エンティティと関係のテキスト記述を含むこともある。
静的なKGC法による表現学習において,時間的情報とテキスト記述の両方を考慮に入れず,グラフの構造的情報のみを活用する。
近年,リンク予測を改善するために時間的情報を用いている研究もあるが,テキスト記述を活用せず,帰納的推論(トレーニングで確認されていないエンティティの予測)をサポートしない研究もある。
テキスト強調時間知識グラフ補完のための事前学習言語モデル(PLM)のパワーを利用するTEMTと呼ばれる新しいフレームワークを提案する。
PLMのパラメータに格納される知識により、TEMTは事実のリッチな意味表現を生成でき、以前は目に見えない実体を一般化することができる。
TEMTは、KGで利用可能なテキスト情報と時間情報を活用し、それらを別々に扱い、それらを融合して事実の信頼性スコアを得る。
以前のアプローチとは異なり、temtは異なる時点間の依存性を効果的に捕捉し、見えないエンティティの予測を可能にする。
TEMTの性能を評価するため,トランスダクティブとインダクティブの両方で時間間隔予測を行い,三重分類を行った。
実験の結果,TEMTは最先端技術と競合していることがわかった。
関連論文リスト
- Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - Learning Granularity Representation for Temporal Knowledge Graph Completion [2.689675451882683]
時間的知識グラフ(TKG)は、実世界の事実の動的な構造的知識と進化的パターンを反映する時間的情報を含んでいる。
本稿では,TKG 補完のための textbfLearning textbfGranularity textbfRepresentation (termed $mathsfLGRe$) を提案する。
グラニュラリティ・ラーニング(GRL)とアダプティブグラニュラリティ・バランシング(AGB)の2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-27T08:19:34Z) - TEILP: Time Prediction over Knowledge Graphs via Logical Reasoning [14.480267340831542]
本稿では,時間的要素を知識グラフ予測に自然に統合する論理的推論フレームワークTEILPを提案する。
まず、TKGを時間的事象知識グラフ(TEKG)に変換する。
最後に、条件付き確率密度関数を導入し、クエリ間隔を含む論理規則に関連付けて、時間予測に着く。
論文 参考訳(メタデータ) (2023-12-25T21:54:56Z) - Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs [10.034072706245544]
時系列グラフのシーケンス予測による時間認識型グラフ構造学習(TGSL)手法を提案する。
特に、タイムアウェアなコンテキスト埋め込みを予測し、Gumble-Top-Kを使用して、このコンテキスト埋め込みに最も近い候補エッジを選択する。
時間リンク予測ベンチマークの実験は、TGSLがTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-13T11:34:36Z) - DyTed: Disentangled Representation Learning for Discrete-time Dynamic
Graph [59.583555454424]
離散時間動的グラフ、すなわちDyTedのための新しいディペンタングル表現学習フレームワークを提案する。
本研究では,時間不変の表現と時間変動の表現を効果的に識別する構造的コントラスト学習とともに,時間的クリップのコントラスト学習タスクを特別に設計する。
論文 参考訳(メタデータ) (2022-10-19T14:34:12Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - TLogic: Temporal Logical Rules for Explainable Link Forecasting on
Temporal Knowledge Graphs [13.085620598065747]
時間知識グラフでは、各エッジにタイムスタンプまたは時間範囲を設けて、時間情報をグラフに統合する。
本稿では、時間的ランダムウォークによって抽出された時間的論理規則に基づく、説明可能なフレームワークであるTLogicを紹介する。
論文 参考訳(メタデータ) (2021-12-15T10:46:35Z) - TeMP: Temporal Message Passing for Temporal Knowledge Graph Completion [45.588053447288566]
時間的知識グラフ(TKGs)に欠落した事実を推測することは、基本的で困難な課題である。
本稿では、グラフニューラルネットワーク、時間力学モデル、データインプット、周波数ベースのゲーティング技術を組み合わせることで、これらの課題に対処するTemporal Message Passing(TeMP)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-07T17:11:53Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。