論文の概要: Fusing Knowledge and Language: A Comparative Study of Knowledge Graph-Based Question Answering with LLMs
- arxiv url: http://arxiv.org/abs/2509.09272v1
- Date: Thu, 11 Sep 2025 09:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.308187
- Title: Fusing Knowledge and Language: A Comparative Study of Knowledge Graph-Based Question Answering with LLMs
- Title(参考訳): 知識と言語:LLMを用いた知識グラフに基づく質問応答の比較研究
- Authors: Vaibhav Chaudhary, Neha Soni, Narotam Singh, Amita Kapoor,
- Abstract要約: 本稿では,知識グラフ三重項の構築と,質問応答のためのLarge Language Models (LLM) の統合のための3つの異なる手法の比較検討を行う。
提案手法の有効性, 実現可能性, 適応性について, LLMに基づく質問応答の性能に与える影響を解析して評価した。
本稿では,各手法の長所と短所について考察し,知識グラフに基づく質問応答の改善に向けた今後の方向性について考察する。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs, a powerful tool for structuring information through relational triplets, have recently become the new front-runner in enhancing question-answering systems. While traditional Retrieval Augmented Generation (RAG) approaches are proficient in fact-based and local context-based extraction from concise texts, they encounter limitations when addressing the thematic and holistic understanding of complex, extensive texts, requiring a deeper analysis of both text and context. This paper presents a comprehensive technical comparative study of three different methodologies for constructing knowledge graph triplets and integrating them with Large Language Models (LLMs) for question answering: spaCy, Stanford CoreNLP-OpenIE, and GraphRAG, all leveraging open source technologies. We evaluate the effectiveness, feasibility, and adaptability of these methods by analyzing their capabilities, state of development, and their impact on the performance of LLM-based question answering. Experimental results indicate that while OpenIE provides the most comprehensive coverage of triplets, GraphRAG demonstrates superior reasoning abilities among the three. We conclude with a discussion on the strengths and limitations of each method and provide insights into future directions for improving knowledge graph-based question answering.
- Abstract(参考訳): 知識グラフは、リレーショナル三重項を通して情報を構造化するための強力なツールであり、最近、質問応答システムを強化するための新たなフロントランナーとなっている。
従来のレトリーバル拡張生成(RAG)アプローチは、事実に基づく、局所的な文脈に基づく簡潔なテキストからの抽出に熟練しているが、複雑な広義のテキストの主題的および包括的理解に対処する際に制限に遭遇し、テキストと文脈の両方をより深く分析する必要がある。
本稿では,3種類の知識グラフトリプレットを構築し,それをLLM(Large Language Models)と統合して質問応答を行うための総合的な技術比較を行った。
提案手法の有効性, 実現可能性, 適応性について, LLMに基づく質問応答の性能に与える影響を解析して評価した。
実験の結果,OpenIEが最も包括的に三重項を網羅しているのに対して,GraphRAGは三重項間の推論能力に優れていた。
本稿では,各手法の長所と短所について考察し,知識グラフに基づく質問応答の改善に向けた今後の方向性について考察する。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - KnowCoder-V2: Deep Knowledge Analysis [64.63893361811968]
我々は、深い知識分析能力を持つ深層研究を支援するtextbfKnowledgeable textbfDeep textbfResearch (textbfKDR) フレームワークを提案する。
大規模なドメイン関連データをオフラインで体系的な知識にプリプロセスするために、独立した知識組織フェーズを導入する。
そして、オンラインの方法で複雑な知識計算を行うための、新たな推論ステップによって、ディープリサーチを拡張します。
論文 参考訳(メタデータ) (2025-06-07T18:01:25Z) - GenKI: Enhancing Open-Domain Question Answering with Knowledge Integration and Controllable Generation in Large Language Models [75.25348392263676]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - A Survey of Graph Retrieval-Augmented Generation for Customized Large Language Models [29.45576836135952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)をカスタマイズするための有望なソリューションとして登場した。
本調査は,GraphRAG(Graph-based Retrieval-Augmented Generation)の系統的解析である。
論文 参考訳(メタデータ) (2025-01-21T06:25:21Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Context Matters: Pushing the Boundaries of Open-Ended Answer Generation with Graph-Structured Knowledge Context [4.1229332722825]
本稿では,知識グラフに基づく拡張と合わせて,グラフ駆動型コンテキスト検索を組み合わせた新しいフレームワークを提案する。
我々は,様々なパラメータサイズを持つ大規模言語モデル(LLM)の実験を行い,知識の基盤化能力を評価し,オープンな質問に対する回答の事実的正確性を決定する。
われわれの方法であるGraphContextGenは、テキストベースの検索システムよりも一貫して優れており、その堅牢性と多くのユースケースへの適応性を実証している。
論文 参考訳(メタデータ) (2024-01-23T11:25:34Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。