論文の概要: DREAM: Adaptive Reinforcement Learning based on Attention Mechanism for
Temporal Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2304.03984v1
- Date: Sat, 8 Apr 2023 10:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 18:35:59.316664
- Title: DREAM: Adaptive Reinforcement Learning based on Attention Mechanism for
Temporal Knowledge Graph Reasoning
- Title(参考訳): DREAM:時間知識グラフ推論のための注意機構に基づく適応強化学習
- Authors: Shangfei Zheng, Hongzhi Yin, Tong Chen, Quoc Viet Hung Nguyen, Wei
Chen, Lei Zhao
- Abstract要約: 本稿では,注意機構(DREAM)に基づく適応型強化学習モデルを提案する。
実験により、DREAMはパブリックデータセットの最先端モデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 46.16322824448241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal knowledge graphs (TKGs) model the temporal evolution of events and
have recently attracted increasing attention. Since TKGs are intrinsically
incomplete, it is necessary to reason out missing elements. Although existing
TKG reasoning methods have the ability to predict missing future events, they
fail to generate explicit reasoning paths and lack explainability. As
reinforcement learning (RL) for multi-hop reasoning on traditional knowledge
graphs starts showing superior explainability and performance in recent
advances, it has opened up opportunities for exploring RL techniques on TKG
reasoning. However, the performance of RL-based TKG reasoning methods is
limited due to: (1) lack of ability to capture temporal evolution and semantic
dependence jointly; (2) excessive reliance on manually designed rewards. To
overcome these challenges, we propose an adaptive reinforcement learning model
based on attention mechanism (DREAM) to predict missing elements in the future.
Specifically, the model contains two components: (1) a multi-faceted attention
representation learning method that captures semantic dependence and temporal
evolution jointly; (2) an adaptive RL framework that conducts multi-hop
reasoning by adaptively learning the reward functions. Experimental results
demonstrate DREAM outperforms state-of-the-art models on public dataset
- Abstract(参考訳): 時間知識グラフ(TKG)は事象の時間的進化をモデル化し、近年注目を集めている。
TKGは本質的に不完全であるため、欠落要素を推論する必要がある。
既存のTKG推論手法は、将来の事象を予測できるが、明確な推論経路の生成に失敗し、説明性に欠ける。
従来の知識グラフを用いたマルチホップ推論のための強化学習(RL)は、近年の進歩において優れた説明可能性や性能を示すようになり、TKG推論におけるRL技術を探究する機会が開かれた。
しかし, rlベースのtkg推論手法の性能は, (1) 時間的進化と意味的依存を協調的に捉える能力の欠如, (2) 手動設計による報酬への過度な依存, によって制限されている。
これらの課題を克服するために,注意機構(DREAM)に基づく適応型強化学習モデルを提案する。
具体的には,(1)意味的依存と時間的進化を協調的に捉えた多面的注意表現学習法,(2)報酬関数を適応的に学習してマルチホップ推論を行う適応的RLフレームワークである。
DREAMが公開データセットの最先端モデルより優れていることを示す実験結果
関連論文リスト
- CEGRL-TKGR: A Causal Enhanced Graph Representation Learning Framework for Improving Temporal Knowledge Graph Extrapolation Reasoning [1.6795461001108096]
時間的知識グラフ推論(TKGR)のための革新的な因果拡張グラフ表現学習フレームワークを提案する。
まず、時間グラフ列における実体と関係の進化的表現を、2つの異なる成分、すなわち因果表現と共起表現に分解する。
論文 参考訳(メタデータ) (2024-08-15T03:34:53Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - MPLR: a novel model for multi-target learning of logical rules for
knowledge graph reasoning [5.499688003232003]
本研究では,知識グラフに基づく推論のための論理規則の学習問題について検討する。
本稿では,学習データを完全に活用するために既存のモデルを改善するMPLRと呼ばれるモデルを提案する。
実験結果は,MPLRモデルが5つのベンチマークデータセット上で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-12T09:16:00Z) - TimeTraveler: Reinforcement Learning for Temporal Knowledge Graph
Forecasting [12.963769928056253]
本稿では,予測のための最初の強化学習手法を提案する。具体的には,エージェントが過去の知識グラフのスナップショットを旅して回答を検索する。
提案手法は,タイムパン情報を取得するための相対時間符号化関数を定義し,ディリクレ分布に基づく新たな時間型報酬を設計し,モデル学習を指導する。
我々は,このリンク予測タスクを将来のタイムスタンプで評価する。
論文 参考訳(メタデータ) (2021-09-09T08:41:01Z) - Neural-Symbolic Commonsense Reasoner with Relation Predictors [36.03049905851874]
Commonsense reasoningは、Commonsense Knowledge Graphs (CKG)から取得した一連のCommonsense factsを統合することを目的としており、通常の状況に関する結論を引き出す。
この機能はまた、新しいイベント間の関係を予測するのにそのような推論プロセスが必要な大規模なスパースナレッジグラフを持つことになる。
本稿では,大規模動的CKGの推論が可能なニューラルシンボリック推論器を提案する。
論文 参考訳(メタデータ) (2021-05-14T08:54:25Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explanation of Reinforcement Learning Model in Dynamic Multi-Agent
System [3.754171077237216]
本稿では,DRL行動薬の口頭説明作成における新たな取り組みについて報告する。
一般的な状況に言語説明を生成する暗黙の論理を拡張するための学習モデルを提案する。
その結果,両モデルが生成した言語説明は,DRLシステムの解釈可能性に対するユーザの主観的満足度を向上させることがわかった。
論文 参考訳(メタデータ) (2020-08-04T13:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。