論文の概要: Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities
- arxiv url: http://arxiv.org/abs/2505.20099v1
- Date: Mon, 26 May 2025 15:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.545939
- Title: Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities
- Title(参考訳): 質問応答のための知識グラフを備えた大規模言語モデル:合成と機会
- Authors: Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang,
- Abstract要約: 大規模言語モデル(LLM)は質問応答(QA)タスクにおいて顕著な性能を示した。
しかし、LLMベースのQAは、推論能力の貧弱さ、時代遅れの知識、幻覚のために複雑なQAタスクに苦しむ。
いくつかの最近の研究は、上記の課題に対処するために、QAのためのLLMと知識グラフ(KG)を合成している。
- 参考スコア(独自算出の注目度): 8.870297760635996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable performance on question-answering (QA) tasks because of their superior capabilities in natural language understanding and generation. However, LLM-based QA struggles with complex QA tasks due to poor reasoning capacity, outdated knowledge, and hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs) for QA to address the above challenges. In this survey, we propose a new structured taxonomy that categorizes the methodology of synthesizing LLMs and KGs for QA according to the categories of QA and the KG's role when integrating with LLMs. We systematically survey state-of-the-art advances in synthesizing LLMs and KGs for QA and compare and analyze these approaches in terms of strength, limitations, and KG requirements. We then align the approaches with QA and discuss how these approaches address the main challenges of different complex QA. Finally, we summarize the advancements, evaluation metrics, and benchmark datasets and highlight open challenges and opportunities.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語理解と生成において優れた能力を持つため、質問応答(QA)タスクにおいて顕著な性能を示した。
しかし、LLMベースのQAは、推論能力の貧弱さ、時代遅れの知識、幻覚のために複雑なQAタスクに苦しむ。
いくつかの最近の研究は、上記の課題に対処するために、QAのためのLLMと知識グラフ(KG)を合成している。
本稿では,LLMと統合する際のQAとKGの役割のカテゴリに応じて,QAのためのLLMとKGを合成する手法を分類する新たな構造分類法を提案する。
我々は、QAのためのLLMとKGの合成における最先端の状況を体系的に調査し、これらのアプローチを強度、限界、KG要求の観点から比較、分析する。
次に、アプローチをQAと整合させ、これらのアプローチが異なる複雑なQAの主な課題にどのように対処するかについて議論する。
最後に、進歩、評価指標、ベンチマークデータセットを要約し、オープンな課題と機会を強調します。
関連論文リスト
- Reinforcing Question Answering Agents with Minimalist Policy Gradient Optimization [80.09112808413133]
Mujicaは、質問をサブクエストの非循環グラフに分解するプランナーであり、検索と推論を通じて質問を解決するワーカーである。
MyGOは、従来のポリシー更新を勾配的いいねりの最大推定に置き換える、新しい強化学習手法である。
複数のデータセットにまたがる実験結果から,マルチホップQA性能向上における MujicaMyGO の有効性が示された。
論文 参考訳(メタデータ) (2025-05-20T18:33:03Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - A Survey of Large Language Model Agents for Question Answering [0.7416846035207727]
本稿では,大規模言語モデル(LLM)に基づく質問応答エージェント(QA)の開発について検討する。
従来のエージェントは、大量のデータ要件や、新しい環境への一般化の難しさなど、重大な制限に直面している。
LLMベースのエージェントは、LLMをコア推論エンジンとして活用することで、これらの課題に対処する。
論文 参考訳(メタデータ) (2025-03-24T23:39:44Z) - Compound-QA: A Benchmark for Evaluating LLMs on Compound Questions [10.783827859678892]
本稿では、複合質問合成(CQ-Syn)を導入し、複合QAベンチマークを作成する。
このベンチマークは、プロプライエタリな大規模言語モデルにアノテートされた既存のQAデータセットに由来する。
LLM能力は、理解、推論、知識を含む3次元の観点で評価する。
論文 参考訳(メタデータ) (2024-11-15T13:12:29Z) - AGENT-CQ: Automatic Generation and Evaluation of Clarifying Questions for Conversational Search with LLMs [53.6200736559742]
エージェント-CQは、世代ステージと評価ステージの2つのステージから構成される。
CrowdLLMは、人間のクラウドソーシング判断をシミュレートして、生成された質問や回答を評価する。
ClariQデータセットの実験では、質問と回答の品質を評価するCrowdLLMの有効性が示されている。
論文 参考訳(メタデータ) (2024-10-25T17:06:27Z) - DEXTER: A Benchmark for open-domain Complex Question Answering using LLMs [3.24692739098077]
オープンドメイン複合質問回答 (QA) は証拠検索と推論において難しい課題である。
我々は、オープンドメイン設定で、最先端の訓練済み高密度・スパース検索モデルを評価する。
BM25のような遅延相互作用モデルや驚くほど語彙的モデルは、事前訓練された高密度検索モデルと比較してよく機能する。
論文 参考訳(メタデータ) (2024-06-24T22:09:50Z) - QADYNAMICS: Training Dynamics-Driven Synthetic QA Diagnostic for
Zero-Shot Commonsense Question Answering [48.25449258017601]
State-of-the-artはCommonSense Knowledge Basesから構築されたQAペア上での微調整言語モデルにアプローチする。
本稿では,QA診断と改善のためのトレーニング動的フレームワークQADYNAMICSを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:27:34Z) - Complex QA and language models hybrid architectures, Survey [0.0]
本稿では,言語モデルアーキテクチャの現状と「複雑」質問応答(QA, CQA, CPS)戦略について述べる。
本稿では, ドメイン適応, 分解, 効率的な多段階QA, 長文および非ファクトイドQA, 安全性と多感性データ保護, マルチモーダル探索, 幻覚, 説明可能性と真理性, 時間的推論など, 複雑なQAに関わる課題について論じる。
論文 参考訳(メタデータ) (2023-02-17T18:31:31Z) - Improved and Efficient Conversational Slot Labeling through Question
Answering [48.670822631047635]
Transformer-based Pretrained Language Model (PLM) は、自然言語理解(NLU)タスクの大部分に適合しないパフォーマンスを提供する。
本稿では,対話のためのNLUの重要なコンポーネントであるテキストスロットラベリング(SL)のモデリングと研究に焦点をあてる。
本稿では,QA調整型PLMをSLタスクに適用し,新しい最先端性能を実現する方法を示す。
論文 参考訳(メタデータ) (2022-04-05T11:34:35Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。