論文の概要: ARK-V1: An LLM-Agent for Knowledge Graph Question Answering Requiring Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2509.18063v1
- Date: Mon, 22 Sep 2025 17:40:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.545232
- Title: ARK-V1: An LLM-Agent for Knowledge Graph Question Answering Requiring Commonsense Reasoning
- Title(参考訳): ARK-V1:LLM-Agent for Knowledge Graph Question Answering Requiring Commonsense Reasoning
- Authors: Jan-Felix Klein, Lars Ohnemus,
- Abstract要約: 我々は、自然言語クエリに答えるためにグラフを反復的に探索する単純なKGエージェントであるARK-V1を提案する。
我々は、CoLoTaデータセット上でARK-V1のバックボーンとして、未調整の最先端LCMをいくつか評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) show strong reasoning abilities but rely on internalized knowledge that is often insufficient, outdated, or incorrect when trying to answer a question that requires specific domain knowledge. Knowledge Graphs (KGs) provide structured external knowledge, yet their complexity and multi-hop reasoning requirements make integration challenging. We present ARK-V1, a simple KG-agent that iteratively explores graphs to answer natural language queries. We evaluate several not fine-tuned state-of-the art LLMs as backbones for ARK-V1 on the CoLoTa dataset, which requires both KG-based and commonsense reasoning over long-tail entities. ARK-V1 achieves substantially higher conditional accuracies than Chain-of-Thought baselines, and larger backbone models show a clear trend toward better coverage, correctness, and stability.
- Abstract(参考訳): 大規模言語モデル(LLM)は、強い推論能力を示すが、特定のドメイン知識を必要とする質問に答えようとするとき、しばしば不十分、時代遅れ、または誤った内部知識に依存している。
知識グラフ(KG)は構造化された外部知識を提供するが、その複雑さとマルチホップ推論要求は統合を困難にしている。
我々は、自然言語クエリに答えるためにグラフを反復的に探索する単純なKGエージェントであるARK-V1を提案する。
我々は、長い尾を持つエンティティに対して、KGベースと常識的推論を必要とするCoLoTaデータセット上で、ARK-V1のバックボーンとして、未調整の最先端LPMをいくつか評価する。
ARK-V1は、Chain-of-Thoughtベースラインよりも格段に高い条件精度を実現し、より大きなバックボーンモデルは、より良いカバレッジ、正確性、安定性を示す。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - KG-o1: Enhancing Multi-hop Question Answering in Large Language Models via Knowledge Graph Integration [29.320693000484273]
KG-o1は、知識グラフを統合して、大規模言語モデルのマルチホップ推論能力を高める4段階のアプローチである。
簡単な2つのデータセットと複雑な2つのデータセットについて実験を行う。
その結果,KG-o1 モデルでは既存の LRM モデルと比較して,全タスクにおいて優れた性能を示した。
論文 参考訳(メタデータ) (2025-08-12T04:29:10Z) - iQUEST: An Iterative Question-Guided Framework for Knowledge Base Question Answering [6.4524748618007415]
iQUESTは、複雑なクエリを単純なサブクエリに繰り返し分解する質問誘導KBQAフレームワークである。
グラフニューラルネットワーク(GNN)を統合して、各推論ステップに2ホップ隣の情報を組み込む。
論文 参考訳(メタデータ) (2025-06-02T15:30:02Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [92.71304585906624]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Learning Federated Neural Graph Databases for Answering Complex Queries from Distributed Knowledge Graphs [53.03085605769093]
我々は、マルチソースグラフデータに対するプライバシ保護推論を促進する先駆的な体系的フレームワークであるFederated Neural Graph DataBase(FedNGDB)を学習することを提案する。
FedNGDBは、フェデレートされた学習を活用して、複数のソースにわたるグラフ表現を協調的に学習し、エンティティ間の関係を強化し、グラフデータの全体的な品質を改善する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - Enhancing Large Language Models with Pseudo- and Multisource- Knowledge Graphs for Open-ended Question Answering [22.259143559398915]
Pseudo-Graph GenerationとAtomic Knowledge Verificationを組み合わせたフレームワークを提案する。
ベースラインと比較して、オープンエンド質問に対するROUGE-Lスコアの11.5の最小改善が得られる。
論文 参考訳(メタデータ) (2024-02-15T12:20:02Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。