論文の概要: MIRA: Multihop Relation Prediction in Temporal Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2110.14284v1
- Date: Wed, 27 Oct 2021 09:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:12:00.799212
- Title: MIRA: Multihop Relation Prediction in Temporal Knowledge Graphs
- Title(参考訳): MIRA:時間知識グラフにおけるマルチホップ関係予測
- Authors: Christian M.M. Frey, Yunpu Ma, Matthias Schubert
- Abstract要約: 知識グラフ内のエンティティを接続する推論サブグラフ上のマルチホップ推論は、強化学習タスクとして定式化することができる。
探索されたグラフ構造に関する情報の符号化は、指紋と呼ばれる。
評価の結果,提案手法は時間的知識グラフに対する最先端の埋め込みアルゴリズムと一致した結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 8.565134944225491
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In knowledge graph reasoning, we observe a trend to analyze temporal data
evolving over time. The additional temporal dimension is attached to facts in a
knowledge base resulting in quadruples between entities such as (Nintendo,
released, Super Mario, Sep-13-1985), where the relation between two entities is
associated to a specific time interval or point in time. Multi-hop reasoning on
inferred subgraphs connecting entities within a knowledge graph can be
formulated as a reinforcement learning task where the agent sequentially
performs inference upon the explored subgraph. The task in this work is to
infer the predicate between a subject and an object entity, i.e., (subject, ?,
object, time), being valid at a certain timestamp or time interval. Given query
entities, our agent starts to gather temporal relevant information about the
neighborhood of the subject and object. The encoding of information about the
explored graph structures is referred to as fingerprints. Subsequently, we use
the two fingerprints as input to a Q-Network. Our agent decides sequentially
which relational type needs to be explored next expanding the local subgraphs
of the query entities in order to find promising paths between them. The
evaluation shows that the proposed method not only yields results being in line
with state-of-the-art embedding algorithms for temporal Knowledge Graphs (tKG),
but we also gain information about the relevant structures between subjects and
objects.
- Abstract(参考訳): 知識グラフ推論では、時間とともに進化する時間的データを分析する傾向を観察する。
追加の時間次元は知識ベースにおける事実に付随し、(Nintendo, released, Super Mario, Sep-13-1985) 二つの実体間の関係が特定の時間間隔や時間点に関連付けられている。
知識グラフ内のエンティティを接続する推論サブグラフ上のマルチホップ推論は、エージェントが探索されたサブグラフに対して逐次推論を行う強化学習タスクとして定式化することができる。
この作業のタスクは、オブジェクトとオブジェクトエンティティ、すなわち(subject, ?, object, time)の間の述語を推論することであり、あるタイムスタンプまたは時間間隔で有効である。
クエリエンティティが与えられた場合、エージェントは主題とオブジェクトの近傍に関する時間的関連情報を集め始めます。
探索されたグラフ構造に関する情報のエンコーディングは、指紋と呼ばれる。
次に、2つの指紋をQ-Networkの入力として使用する。
エージェントは、クエリエンティティのローカルサブグラフを拡張して、それらの間の有望なパスを見つけるために、どのリレーショナルタイプを探索する必要があるかをシーケンシャルに決定します。
評価の結果,提案手法は時間的知識グラフ(tKG)の最先端埋め込みアルゴリズムに適合するだけでなく,対象物と対象物間の関連構造に関する情報も得られることがわかった。
関連論文リスト
- Learning Granularity Representation for Temporal Knowledge Graph Completion [2.689675451882683]
時間的知識グラフ(TKG)は、実世界の事実の動的な構造的知識と進化的パターンを反映する時間的情報を含んでいる。
本稿では,TKG 補完のための textbfLearning textbfGranularity textbfRepresentation (termed $mathsfLGRe$) を提案する。
グラニュラリティ・ラーニング(GRL)とアダプティブグラニュラリティ・バランシング(AGB)の2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-27T08:19:34Z) - Re-Temp: Relation-Aware Temporal Representation Learning for Temporal
Knowledge Graph Completion [11.699431017532367]
補外設定の下での時間的知識グラフ補完(TKGC)は、将来的な事実から欠落した実体を予測することを目的としている。
提案するモデルであるRe-Tempは,明示的な時間的埋め込みを入力として利用し,各タイムスタンプ後のスキップ情報フローを組み込んで,不要な情報を省略して予測する。
我々のモデルは、最近の8つの最先端モデル全てに顕著なマージンで勝っていることを実証する。
論文 参考訳(メタデータ) (2023-10-24T10:58:33Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - Temporal Knowledge Graph Reasoning with Low-rank and Model-agnostic
Representations [1.8262547855491458]
低ランクテンソル分解モデル LowFER のパラメータ効率および時間認識拡張系である Time-LowFER を導入する。
時間を表現するための現在のアプローチのいくつかの制限に留意し、時間特徴に対するサイクル対応の時間符号化方式を提案する。
我々は,時間に敏感なデータ処理に着目した統合時間知識グラフ埋め込みフレームワークに本手法を実装した。
論文 参考訳(メタデータ) (2022-04-10T22:24:11Z) - Time-aware Graph Neural Networks for Entity Alignment between Temporal
Knowledge Graphs [8.739319749401819]
グラフニューラルネットワーク(TEA-GNN)に基づく時間認識型エンティティアライメント手法を提案する。
本手法は時間情報の導入により最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2022-03-04T06:41:51Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Spatio-Temporal Interaction Graph Parsing Networks for Human-Object
Interaction Recognition [55.7731053128204]
ビデオに基づくヒューマンオブジェクトインタラクションシーンでは、人間とオブジェクトの時間的関係をモデル化することが、ビデオに提示されるコンテキスト情報を理解するための重要な手がかりである。
実効時間関係モデリングでは、各フレームの文脈情報を明らかにするだけでなく、時間間の依存関係を直接キャプチャすることもできる。
外観特徴、空間的位置、意味情報のフル活用は、ビデオベースのヒューマンオブジェクトインタラクション認識性能を改善する鍵でもある。
論文 参考訳(メタデータ) (2021-08-19T11:57:27Z) - One-shot Learning for Temporal Knowledge Graphs [49.41854171118697]
時間的知識グラフにおけるリンク予測のためのワンショット学習フレームワークを提案する。
提案手法は,実体間の時間的相互作用を効果的に符号化する自己認識機構を用いる。
実験の結果,提案アルゴリズムは2つのよく研究されたベンチマークにおいて,アートベースラインの状態よりも優れていた。
論文 参考訳(メタデータ) (2020-10-23T03:24:44Z) - Software Engineering Event Modeling using Relative Time in Temporal
Knowledge Graphs [15.22542676866305]
GitHubのアーティファクト間の日々のインタラクションに基づいて,マルチリレーショナルな時間知識グラフを提案する。
補間時間条件リンク予測と,補間時間条件リンク/時間予測クエリの2つの新しいデータセットを提案する。
これらのデータセットに関する我々の実験は、幅広いソフトウェアエンジニアリングの質問に答えるために知識グラフを適用する可能性を浮き彫りにした。
論文 参考訳(メタデータ) (2020-07-02T16:28:43Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Relational Message Passing for Knowledge Graph Completion [78.47976646383222]
本稿では,知識グラフ補完のためのリレーショナルメッセージパッシング手法を提案する。
エッジ間でリレーショナルメッセージを反復的に送信し、近隣情報を集約する。
その結果,本手法は最先端の知識完成手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-02-17T03:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。