論文の概要: ReaRev: Adaptive Reasoning for Question Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.13650v1
- Date: Mon, 24 Oct 2022 23:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:31:39.495374
- Title: ReaRev: Adaptive Reasoning for Question Answering over Knowledge Graphs
- Title(参考訳): ReaRev: 知識グラフに対する質問応答のための適応型推論
- Authors: Costas Mavromatis, George Karypis
- Abstract要約: 知識グラフ質問回答(KGQA)は、自然言語クエリを使用して知識グラフ(KG)からの回答としてエンティティを検索する。
命令デコーディングと実行の両方に関して、KGQA推論に新しい方法を導入する。
3つのKGQAベンチマークの実験結果は、以前の最先端と比較してReaRevの有効性を示している。
- 参考スコア(独自算出の注目度): 12.592903558338444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graph Question Answering (KGQA) involves retrieving entities as
answers from a Knowledge Graph (KG) using natural language queries. The
challenge is to learn to reason over question-relevant KG facts that traverse
KG entities and lead to the question answers. To facilitate reasoning, the
question is decoded into instructions, which are dense question representations
used to guide the KG traversals. However, if the derived instructions do not
exactly match the underlying KG information, they may lead to reasoning under
irrelevant context. Our method, termed ReaRev, introduces a new way to KGQA
reasoning with respect to both instruction decoding and execution. To improve
instruction decoding, we perform reasoning in an adaptive manner, where
KG-aware information is used to iteratively update the initial instructions. To
improve instruction execution, we emulate breadth-first search (BFS) with graph
neural networks (GNNs). The BFS strategy treats the instructions as a set and
allows our method to decide on their execution order on the fly. Experimental
results on three KGQA benchmarks demonstrate the ReaRev's effectiveness
compared with previous state-of-the-art, especially when the KG is incomplete
or when we tackle complex questions. Our code is publicly available at
https://github.com/cmavro/ReaRev_KGQA.
- Abstract(参考訳): 知識グラフ質問回答(KGQA)は、自然言語クエリを使用して知識グラフ(KG)からの回答としてエンティティを検索する。
課題は、KGエンティティを横断し、疑問答えにつながる疑問関連KG事実を推論することである。
推論を容易にするために、質問はKGトラバーサルを導くために使用される密度の高い質問表現である命令にデコードされる。
しかし、導出命令が基礎となるkg情報と正確に一致しない場合、無関係な文脈下で推論に繋がる可能性がある。
我々の手法はReaRevと呼ばれ、命令デコーディングと実行の両方に関してKGQA推論に新しい方法を導入する。
命令復号化を改善するため、KG認識情報を用いて初期命令を反復的に更新する適応的な推論を行う。
命令実行を改善するため,グラフニューラルネットワーク(GNN)を用いた広帯域探索(BFS)をエミュレートする。
BFS戦略は命令を集合として扱い、我々の手法が実行順序を決定できる。
3つのKGQAベンチマークの実験結果は、特にKGが不完全である場合や複雑な問題に取り組む場合のReaRevの有効性を示す。
私たちのコードはhttps://github.com/cmavro/rearev_kgqaで公開されています。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Graph Reasoning for Question Answering with Triplet Retrieval [33.454090126152714]
知識グラフ(KGs)から最も関連性の高い三つ子を抽出する簡便で効果的な方法を提案する。
我々の手法は最先端の精度を4.6%まで上回ることができる。
論文 参考訳(メタデータ) (2023-05-30T04:46:28Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - Improving Question Answering over Knowledge Graphs Using Graph
Summarization [0.2752817022620644]
キーとなる考え方は、知識グラフの質問やエンティティを低次元の埋め込みとして表現することである。
本稿では,リカレント畳み込みニューラルネットワーク(RCNN)とGCNを用いたグラフ要約手法を提案する。
提案手法は,KGQAでは解答が不確実な数で得られない問題に対処するために用いられる。
論文 参考訳(メタデータ) (2022-03-25T10:57:10Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。