論文の概要: Enhancing Large Language Models (LLMs) for Telecom using Dynamic Knowledge Graphs and Explainable Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2602.17529v1
- Date: Thu, 19 Feb 2026 16:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.213681
- Title: Enhancing Large Language Models (LLMs) for Telecom using Dynamic Knowledge Graphs and Explainable Retrieval-Augmented Generation
- Title(参考訳): 動的知識グラフと説明可能な検索拡張生成を用いたテレコム用大規模言語モデル(LLM)の強化
- Authors: Dun Yuan, Hao Zhou, Xue Liu, Hao Chen, Yan Xin, Jianzhong, Zhang,
- Abstract要約: KG-RAGは、知識グラフと検索強化生成(RAG)を統合し、テレコム固有のタスクのための大規模言語モデル(LLM)を強化する新しいフレームワークである。
特に、KGは、テレコム標準と技術文書から派生したドメイン知識の構造化された表現を提供し、RAGは関連する事実の動的検索を可能にして、モデルの出力を基盤とする。
- 参考スコア(独自算出の注目度): 34.04886809169701
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large language models (LLMs) have shown strong potential across a variety of tasks, but their application in the telecom field remains challenging due to domain complexity, evolving standards, and specialized terminology. Therefore, general-domain LLMs may struggle to provide accurate and reliable outputs in this context, leading to increased hallucinations and reduced utility in telecom operations.To address these limitations, this work introduces KG-RAG-a novel framework that integrates knowledge graphs (KGs) with retrieval-augmented generation (RAG) to enhance LLMs for telecom-specific tasks. In particular, the KG provides a structured representation of domain knowledge derived from telecom standards and technical documents, while RAG enables dynamic retrieval of relevant facts to ground the model's outputs. Such a combination improves factual accuracy, reduces hallucination, and ensures compliance with telecom specifications.Experimental results across benchmark datasets demonstrate that KG-RAG outperforms both LLM-only and standard RAG baselines, e.g., KG-RAG achieves an average accuracy improvement of 14.3% over RAG and 21.6% over LLM-only models. These results highlight KG-RAG's effectiveness in producing accurate, reliable, and explainable outputs in complex telecom scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々なタスクに強い可能性を示しているが、通信分野におけるそれらの応用は、ドメインの複雑さ、進化する標準、専門用語などにより、依然として困難である。
したがって、一般ドメインのLLMは、この文脈で正確で信頼性の高い出力を提供するのに苦労し、幻覚が増加し、通信業務の利便性が低下する可能性があるため、これらの制限に対処するために、KG-RAG-知識グラフ(KG)と検索強化世代(RAG)を統合する新しいフレームワークを導入し、テレコム特化タスクのLLMを強化する。
特に、KGは、テレコム標準と技術文書から派生したドメイン知識の構造化された表現を提供し、RAGは関連する事実の動的検索を可能にして、モデルの出力を基盤とする。
このような組み合わせは事実の精度を向上し、幻覚を低減し、テレコム仕様の遵守を保証する。ベンチマークデータセットによる実験の結果、KG-RAGはLLMのみのベースラインと標準RAGのベースラインの両方より優れており、例えばKG-RAGはRAGよりも14.3%、LLMのみのモデルより21.6%の精度向上を達成している。
これらの結果は、KG-RAGが複雑な通信シナリオにおいて正確で信頼性があり、説明可能な出力を生成することの有効性を浮き彫りにする。
関連論文リスト
- KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [58.12674907593879]
KG-Infused RAGは、既存の大規模知識グラフをRAGに組み込むフレームワークである。
KG-Infused RAGは、関連する構造化知識を取得するために、外部KG上での拡散活性化を直接実行する。
実験の結果、KG-Infused RAGはバニラRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。