論文の概要: Answering Questions Over Knowledge Graphs Using Logic Programming Along
with Language Models
- arxiv url: http://arxiv.org/abs/2303.02206v1
- Date: Fri, 3 Mar 2023 20:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:59:42.704659
- Title: Answering Questions Over Knowledge Graphs Using Logic Programming Along
with Language Models
- Title(参考訳): 論理プログラミングと言語モデルを用いた知識グラフに関する質問に答える
- Authors: Navid Madani, Kenneth Joseph
- Abstract要約: 知識グラフに関する質問回答(QA)は、知識グラフ(KG)上で自然言語の質問に答えるタスクである。
このタスクには、正しい答えに到達するために、複数のエッジを推論するモデルが必要です。
問題に対する説明可能な解決策を提供するために、言語モデルに論理言語を装備する。
- 参考スコア(独自算出の注目度): 3.180013942295509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question Answering over Knowledge Graphs (KGQA) is the task of answering
natural language questions over a knowledge graph (KG). This task requires a
model to reason over multiple edges of the KG to reach the right answer. In
this work, we present a method to equip large language models (LLMs) with
classic logical programming languages to provide an explainable solution to the
problem. Our goal is to extract the representation of the question in the form
of a Prolog query, which can then be used to answer the query programmatically.
To demonstrate the effectiveness of this approach, we use the MetaQA dataset
and show that our method finds the correct answer entities for all the
questions in the test dataset.
- Abstract(参考訳): 知識グラフ (KGQA, Question Answering over Knowledge Graphs) は、知識グラフ (KG) 上で自然言語の質問に答えるタスクである。
このタスクは、正しい答えに到達するために、KGの複数のエッジを推論するモデルを必要とする。
本研究では,従来の論理型言語に大型言語モデル(LLM)を組み込むことにより,この問題に対する説明可能な解決策を提供する。
私たちのゴールは、Prologクエリの形式で質問の表現を抽出し、クエリをプログラムで答えることです。
このアプローチの有効性を示すために、MetaQAデータセットを使用し、テストデータセットのすべての質問に対する正しい回答エンティティを見つけることを示す。
関連論文リスト
- Improving Multi-hop Logical Reasoning in Knowledge Graphs with Context-Aware Query Representation Learning [3.7411114598484647]
知識グラフのマルチホップ論理的推論は自然言語処理において重要な課題である。
本稿では,既存のマルチホップ論理推論手法の有効性を高めるモデルに依存しない手法を提案する。
提案手法は,3つのマルチホップ推論基盤モデルを継続的に強化し,最大19.5%の性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-11T07:48:20Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - SPARQL Generation: an analysis on fine-tuning OpenLLaMA for Question
Answering over a Life Science Knowledge Graph [0.0]
生命科学知識グラフを用いた質問応答のためのOpenLlama LLMの微調整戦略を評価する。
本稿では,既存のクエリのセットを知識グラフ上に拡張するためのエンドツーエンドデータ拡張手法を提案する。
また、意味のある変数名やインラインコメントなど、クエリにおける意味的な"キュー"の役割についても検討する。
論文 参考訳(メタデータ) (2024-02-07T07:24:01Z) - Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Coupling Large Language Models with Logic Programming for Robust and
General Reasoning from Text [5.532477732693001]
大規模言語モデルは, 意味論的に非常に効果的な数ショットとして機能することを示す。
自然言語文を論理形式に変換し、応答集合プログラムの入力として機能する。
本手法は,bAbI, StepGame, CLUTRR, gSCAN など,いくつかのベンチマークにおいて最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-15T03:29:59Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。