論文の概要: KG2QA: Knowledge Graph-enhanced Retrieval-augmented Generation for Communication Standards Question Answering
- arxiv url: http://arxiv.org/abs/2506.07037v2
- Date: Wed, 15 Oct 2025 08:33:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 15:32:13.630888
- Title: KG2QA: Knowledge Graph-enhanced Retrieval-augmented Generation for Communication Standards Question Answering
- Title(参考訳): KG2QA: コミュニケーション標準のための知識グラフ強化検索生成
- Authors: Zhongze Luo, Weixuan Wan, Tianya Zhang, Dan Wang, Xiaoying Tang,
- Abstract要約: KG2QAは、細調整された大言語モデル(LLM)とドメイン固有知識グラフ(KG)を統合する質問応答フレームワークである。
ITU-TレコメンデーションとQwen2.5-7B-インストラクトから,高品質な6,587対のQAデータセットを構築した。
我々のKG-RAGパイプラインでは、細調整されたLLMがまずKGから関連する知識を取得し、より正確で現実的な応答を可能にします。
- 参考スコア(独自算出の注目度): 7.079181644378029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of communication technologies has led to an explosion of standards, rendering traditional expert-dependent consultation methods inefficient and slow. To address this challenge, we propose \textbf{KG2QA}, a question answering (QA) framework for communication standards that integrates fine-tuned large language models (LLMs) with a domain-specific knowledge graph (KG) via a retrieval-augmented generation (RAG) pipeline. We construct a high-quality dataset of 6,587 QA pairs from ITU-T recommendations and fine-tune Qwen2.5-7B-Instruct, achieving significant performance gains: BLEU-4 increases from 18.86 to 66.90, outperforming both the base model and Llama-3-8B-Instruct. A structured KG containing 13,906 entities and 13,524 relations is built using LLM-assisted triple extraction based on a custom ontology. In our KG-RAG pipeline, the fine-tuned LLMs first retrieves relevant knowledge from KG, enabling more accurate and factually grounded responses. Evaluated by DeepSeek-V3 as a judge, the KG-enhanced system improves performance across five dimensions, with an average score increase of 2.26\%, demonstrating superior factual accuracy and relevance. Integrated with Web platform and API, KG2QA delivers an efficient and interactive user experience. Our code and data have been open-sourced https://github.com/luozhongze/KG2QA.
- Abstract(参考訳): コミュニケーション技術の急速な進化は、従来の専門家に依存したコンサルティング手法を非効率かつ遅いものにする標準の急増につながった。
この課題に対処するために、我々は、細調整された大規模言語モデル(LLM)とドメイン固有知識グラフ(KG)を、検索拡張生成(RAG)パイプラインを介して統合する通信標準に対する質問応答(QA)フレームワークである「textbf{KG2QA}」を提案する。
BLEU-4は18.86から66.90に増加し,ベースモデルとLlama-3-8Bよりも優れていた。
13,906個の実体と13,524個の関係を持つ構造的KGは、カスタムオントロジーに基づくLLM支援三重抽出を用いて構築される。
我々のKG-RAGパイプラインでは、細調整されたLLMがまずKGから関連する知識を取得し、より正確で現実的な応答を可能にします。
審査員としてDeepSeek-V3によって評価され、KG強化システムは5次元にわたるパフォーマンスを改善し、平均スコアは2.26\%増加し、より優れた事実精度と妥当性を示す。
WebプラットフォームとAPIを統合したKG2QAは、効率的でインタラクティブなユーザエクスペリエンスを提供します。
私たちのコードとデータは、https://github.com/luozhongze/KG2QA.comにオープンソース化されました。
関連論文リスト
- Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language Models [10.130178524819536]
知識グラフ(KGs)は、大規模言語モデル(LLMs)の構造化、検証可能な基盤を提供する
現在のLLMベースのシステムでは、KGをテキスト検索の補助構造として使用しており、本質的な品質は未探索のままである。
我々はオープンドメインテキストからKGを構成する多段階パイプラインであるWikonticを提案する。
論文 参考訳(メタデータ) (2025-11-29T18:44:25Z) - Can Knowledge-Graph-based Retrieval Augmented Generation Really Retrieve What You Need? [57.28763506780752]
GraphFlowは、テキストリッチなKGから現実世界のクエリに必要な正確で多様な知識を効率的に取得するフレームワークである。
GPT-4oを含む強力なKG-RAGベースラインを10%上回り、ヒット率とリコール率で上回る。
また、KGを見えないものに強く一般化し、その有効性と堅牢性を示す。
論文 参考訳(メタデータ) (2025-10-18T17:06:49Z) - Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning [18.9814789695716]
知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
我々は、強化学習(RL)によるエージェントKG検索増強世代(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
論文 参考訳(メタデータ) (2025-09-30T15:14:24Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - KG-CQR: Leveraging Structured Relation Representations in Knowledge Graphs for Contextual Query Retrieval [5.263064605350636]
我々は、コンテキストクエリ検索(CQR)のための新しいフレームワークであるKG-CQRを提案する。
KG-CQRは、構造化された関係表現によるクエリエンリッチメントに焦点を当て、関連するKGサブグラフを抽出して、セマンティックにリッチなクエリコンテキストを生成する。
RAGBenchとMultiHop-RAGデータセットの実験結果は、KG-CQRの優れたパフォーマンスを示し、mAPが4-6%改善され、強力なベースラインモデルよりもRecall@25が2-3%改善された。
論文 参考訳(メタデータ) (2025-08-28T04:37:15Z) - KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [58.12674907593879]
KG-Infused RAGは、既存の大規模知識グラフをRAGに組み込むフレームワークである。
KG-Infused RAGは、関連する構造化知識を取得するために、外部KG上での拡散活性化を直接実行する。
実験の結果、KG-Infused RAGはバニラRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Diagnosing and Addressing Pitfalls in KG-RAG Datasets: Toward More Reliable Benchmarking [56.27361644734853]
知識グラフ質問 回答システムは、複雑なマルチホップ推論を評価するために高品質なベンチマークに依存している。
広く使われているにもかかわらず、WebQSPやCWQのような一般的なデータセットは、重要な品質問題に悩まされている。
我々はこれらの落とし穴を体系的に解決するLLM-in-the-loopフレームワークであるKGQAGenを紹介する。
本研究は,KGQA評価を推し進めるスケーラブルなフレームワークとして,より厳密なベンチマーク構築とKGQAGenの位置づけを提唱する。
論文 参考訳(メタデータ) (2025-05-29T14:44:52Z) - DO-RAG: A Domain-Specific QA Framework Using Knowledge Graph-Enhanced Retrieval-Augmented Generation [4.113142669523488]
ドメイン固有のQAシステムは、生成頻度を必要とするが、構造化専門家の知識に基づく高い事実精度を必要とする。
本稿では,マルチレベル知識グラフ構築と意味ベクトル検索を統合した,スケーラブルでカスタマイズ可能なハイブリッドQAフレームワークであるDO-RAGを提案する。
論文 参考訳(メタデータ) (2025-05-17T06:40:17Z) - Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - EWEK-QA: Enhanced Web and Efficient Knowledge Graph Retrieval for Citation-based Question Answering Systems [103.91826112815384]
引用ベースのQAシステムは2つの欠点に悩まされている。
彼らは通常、抽出された知識の源としてWebにのみ依存し、外部の知識ソースを追加することで、システムの効率を損なう。
システムに供給された知識の内容を充実させるため,Web と 効率的な知識グラフ (KG) 検索ソリューション (EWEK-QA) を提案する。
論文 参考訳(メタデータ) (2024-06-14T19:40:38Z) - FusionMind -- Improving question and answering with external context
fusion [0.0]
事前学習言語モデル(LM)と知識グラフ(KG)を用いて,文脈知識が質問応答目標(QA)に与える影響を検討した。
知識事実のコンテキストを取り入れることで、パフォーマンスが大幅に向上することがわかった。
このことは、文脈的知識事実の統合が、質問応答のパフォーマンスを高める上でより影響があることを示唆している。
論文 参考訳(メタデータ) (2023-12-31T03:51:31Z) - How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) [5.305156933641317]
知的学習システム(ITS)におけるLarge Language Models (LLMs)は、パーソナライズされた教育に変革をもたらす機会を提供する。
現在の実装では、2つの重要な課題に直面している。
本稿では,構造化知識表現と文脈認識検索を統合した新しいフレームワークである知識グラフ強化検索(RAG)を提案する。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - Knowledge Graph Question Answering for Materials Science (KGQA4MAT): Developing Natural Language Interface for Metal-Organic Frameworks Knowledge Graph (MOF-KG) Using LLM [35.208135795371795]
材料科学における知識グラフ質問回答のためのベンチマークデータセット(KGQA4MAT)を提案する。
構造データベースと文献から抽出した知識を統合することにより,金属-有機フレームワーク(MOF-KG)の知識グラフを構築した。
我々は、比較、集約、複雑なグラフ構造を含む161の複雑な質問からなるベンチマークを開発した。
論文 参考訳(メタデータ) (2023-09-20T14:43:43Z) - Pay More Attention to Relation Exploration for Knowledge Base Question
Answering [17.273836429397203]
本稿では,知識ベースにおける関係を利用してエンティティ表現を強化する新しいフレームワークRE-KBQAを提案する。
CWQではF1スコアが40.5から46.3に、WebQSPでは62.8から68.5に5.8%向上した。
論文 参考訳(メタデータ) (2023-05-03T13:48:30Z) - Knowledge Graph Question Answering Leaderboard: A Community Resource to
Prevent a Replication Crisis [61.740077541531726]
コミュニティの焦点として、KGQAベンチマークデータセットに対して、新たな中心的でオープンなリーダボードを提供しています。
本分析は,KGQAシステムの評価において,既存の問題点を浮き彫りにする。
論文 参考訳(メタデータ) (2022-01-20T13:46:01Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。