論文の概要: Domain Specific Question Answering Over Knowledge Graphs Using Logical
Programming and Large Language Models
- arxiv url: http://arxiv.org/abs/2303.02206v2
- Date: Wed, 23 Aug 2023 14:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 18:29:16.979195
- Title: Domain Specific Question Answering Over Knowledge Graphs Using Logical
Programming and Large Language Models
- Title(参考訳): 論理プログラミングと大規模言語モデルを用いた知識グラフに関するドメイン固有質問
- Authors: Navid Madani, Rohini K. Srihari, Kenneth Joseph
- Abstract要約: 我々のアプローチは古典論理型言語を大規模言語モデル(LLM)に統合する。
実験結果から,アノテートされた少数のデータを用いてトレーニングした場合でも,全ての質問に対して正解の正解を正確に同定できることが示唆された。
- 参考スコア(独自算出の注目度): 10.258158633354686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answering questions over domain-specific graphs requires a tailored approach
due to the limited number of relations and the specific nature of the domain.
Our approach integrates classic logical programming languages into large
language models (LLMs), enabling the utilization of logical reasoning
capabilities to tackle the KGQA task. By representing the questions as Prolog
queries, which are readable and near close to natural language in
representation, we facilitate the generation of programmatically derived
answers. To validate the effectiveness of our approach, we evaluate it using a
well-known benchmark dataset, MetaQA. Our experimental results demonstrate that
our method achieves accurate identification of correct answer entities for all
test questions, even when trained on a small fraction of annotated data.
Overall, our work presents a promising approach to addressing question
answering over domain-specific graphs, offering an explainable and robust
solution by incorporating logical programming languages.
- Abstract(参考訳): ドメイン固有のグラフに関する質問に答えるには、限定された関係数とドメインの特定の性質のために、調整されたアプローチが必要である。
提案手法では,古典論理型言語を大規模言語モデル (LLM) に統合し,論理的推論能力を活用してKGQAタスクに取り組む。
自然言語に近い可読性を持つprologクエリとして質問を表現することにより,プログラム的に導出された回答の生成を容易にする。
提案手法の有効性を検証するため,よく知られたベンチマークデータセットであるMetaQAを用いて評価を行った。
実験の結果,アノテートされたデータのごく一部でトレーニングされた場合でも,すべてのテスト質問に対して正しい回答エンティティを正確に識別できることが判明した。
全体として、我々の研究は、ドメイン固有グラフ上の質問応答に対処するための有望なアプローチを示し、論理プログラミング言語を組み込むことで、説明可能で堅牢なソリューションを提供します。
関連論文リスト
- Improving Multi-hop Logical Reasoning in Knowledge Graphs with Context-Aware Query Representation Learning [3.7411114598484647]
知識グラフのマルチホップ論理的推論は自然言語処理において重要な課題である。
本稿では,既存のマルチホップ論理推論手法の有効性を高めるモデルに依存しない手法を提案する。
提案手法は,3つのマルチホップ推論基盤モデルを継続的に強化し,最大19.5%の性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-11T07:48:20Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - SPARQL Generation: an analysis on fine-tuning OpenLLaMA for Question
Answering over a Life Science Knowledge Graph [0.0]
生命科学知識グラフを用いた質問応答のためのOpenLlama LLMの微調整戦略を評価する。
本稿では,既存のクエリのセットを知識グラフ上に拡張するためのエンドツーエンドデータ拡張手法を提案する。
また、意味のある変数名やインラインコメントなど、クエリにおける意味的な"キュー"の役割についても検討する。
論文 参考訳(メタデータ) (2024-02-07T07:24:01Z) - Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Coupling Large Language Models with Logic Programming for Robust and
General Reasoning from Text [5.532477732693001]
大規模言語モデルは, 意味論的に非常に効果的な数ショットとして機能することを示す。
自然言語文を論理形式に変換し、応答集合プログラムの入力として機能する。
本手法は,bAbI, StepGame, CLUTRR, gSCAN など,いくつかのベンチマークにおいて最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-15T03:29:59Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。