論文の概要: Explainable Knowledge Graph Retrieval-Augmented Generation (KG-RAG) with KG-SMILE
- arxiv url: http://arxiv.org/abs/2509.03626v1
- Date: Wed, 03 Sep 2025 18:29:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.939109
- Title: Explainable Knowledge Graph Retrieval-Augmented Generation (KG-RAG) with KG-SMILE
- Title(参考訳): KG-SMILEを用いた説明可能な知識グラフ検索型生成(KG-RAG)
- Authors: Zahra Zehtabi Sabeti Moghaddam, Zeinab Dehghani, Maneeha Rani, Koorosh Aslansefat, Bhupesh Kumar Mishra, Rameez Raja Kureshi, Dhavalkumar Thakker,
- Abstract要約: SMILE を用いた Graph RAG のトークンとコンポーネントレベルの相互運用性を提供する,メソッドに依存しない摂動に基づくフレームワークを開発した。
KG-SMILEは、生成した出力に最も影響を及ぼすグラフエンティティと関係を識別し、RAGをより透明にする。
以上の結果から,KG-SMILEはモデルの有効性と解釈可能性のバランスをとる能力を示した。
- 参考スコア(独自算出の注目度): 0.03908906925636173
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI, such as Large Language Models (LLMs), has achieved impressive progress but still produces hallucinations and unverifiable claims, limiting reliability in sensitive domains. Retrieval-Augmented Generation (RAG) improves accuracy by grounding outputs in external knowledge, especially in domains like healthcare, where precision is vital. However, RAG remains opaque and essentially a black box, heavily dependent on data quality. We developed a method-agnostic, perturbation-based framework that provides token and component-level interoperability for Graph RAG using SMILE and named it as Knowledge-Graph (KG)-SMILE. By applying controlled perturbations, computing similarities, and training weighted linear surrogates, KG-SMILE identifies the graph entities and relations most influential to generated outputs, thereby making RAG more transparent. We evaluate KG-SMILE using comprehensive attribution metrics, including fidelity, faithfulness, consistency, stability, and accuracy. Our findings show that KG-SMILE produces stable, human-aligned explanations, demonstrating its capacity to balance model effectiveness with interpretability and thereby fostering greater transparency and trust in machine learning technologies.
- Abstract(参考訳): LLM(Large Language Models)のような生成AIは目覚ましい進歩を遂げているが、それでも幻覚や検証不可能なクレームを生成し、機密ドメインの信頼性を制限している。
Retrieval-Augmented Generation (RAG) は、特に精度が不可欠である医療などの領域において、外部知識のアウトプットを基礎として精度を向上させる。
しかしながら、RAGは不透明で本質的にブラックボックスであり、データ品質に大きく依存している。
我々はSMILEを用いたグラフRAGのトークンとコンポーネントレベルの相互運用性を提供する手法に依存しない摂動型フレームワークを開発し、それを知識グラフ(KG)-SMILEと名付けた。
制御された摂動、計算の類似性、訓練された重み付き線形サロゲートを適用することで、KG-SMILEは生成した出力に最も影響を及ぼすグラフエンティティと関係を識別し、RAGをより透明にする。
KG-SMILEは, 忠実度, 忠実度, 一貫性, 安定性, 正確性など, 包括的帰属度を用いて評価した。
以上の結果から,KG-SMILEは,モデルの有効性と解釈可能性のバランスをとる能力を示し,機械学習技術における透明性と信頼性の向上を図った。
関連論文リスト
- Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Towards Self-cognitive Exploration: Metacognitive Knowledge Graph Retrieval Augmented Generation [11.752268960775075]
知識グラフに基づく検索言語生成(KG-RAG)は,大規模言語モデルの推論能力を著しく向上させる。
既存のKG-RAGフレームワークはオープンループシステムとして機能し、認知障害に悩まされている。
本稿ではメタ認知的知識グラフ検索拡張生成(MetaKGRAG)を提案する。
論文 参考訳(メタデータ) (2025-08-13T03:35:32Z) - Enhancing Large Language Models with Reliable Knowledge Graphs [0.6345523830122166]
知識グラフは、検証された知識で大規模言語モデルを構築するための有望なソリューションを提供する。
それらのポテンシャルは、固有のノイズ、不完全性、およびそれらの剛性構造とLLMの柔軟な推論を統合する複雑さによって制約されている。
この論文は、信頼性の高いKGを精製し活用することによってLCMを強化する凝集フレームワークを通じて、これらの制限に対処する。
論文 参考訳(メタデータ) (2025-06-16T07:43:18Z) - Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training [38.3788247358102]
本稿では、二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T06:22:52Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Knowledge Graph Contrastive Learning for Recommendation [32.918864602360884]
我々は、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減するために、一般的な知識グラフ比較学習フレームワークを設計する。
具体的には,情報集約におけるKGノイズを抑制する知識グラフ拡張スキーマを提案する。
我々は、KG拡張プロセスから追加の監視信号を利用して、クロスビューコントラスト学習パラダイムを導出する。
論文 参考訳(メタデータ) (2022-05-02T15:24:53Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。