論文の概要: Domain-Specific Knowledge Graphs in RAG-Enhanced Healthcare LLMs
- arxiv url: http://arxiv.org/abs/2601.15429v1
- Date: Wed, 21 Jan 2026 19:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.401023
- Title: Domain-Specific Knowledge Graphs in RAG-Enhanced Healthcare LLMs
- Title(参考訳): RAG強化医療LLMにおけるドメイン特化知識グラフ
- Authors: Sydney Anuyah, Mehedi Mahmud Kaushik, Hao Dai, Rakesh Shiradkar, Arjan Durresi, Sunandan Chakraborty,
- Abstract要約: 大規模言語モデル(LLM)は、流動的な答えを生成するが、信頼できるドメイン固有の推論に苦労する可能性がある。
我々は,3つのPubMedグラフを構築することにより,ドメイン知識グラフ(KG)が医療用検索強化生成(RAG)を改善するか否かを評価する。
- 参考スコア(独自算出の注目度): 2.3832272852673912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) generate fluent answers but can struggle with trustworthy, domain-specific reasoning. We evaluate whether domain knowledge graphs (KGs) improve Retrieval-Augmented Generation (RAG) for healthcare by constructing three PubMed-derived graphs: $\mathbb{G}_1$ (T2DM), $\mathbb{G}_2$ (Alzheimer's disease), and $\mathbb{G}_3$ (AD+T2DM). We design two probes: Probe 1 targets merged AD T2DM knowledge, while Probe 2 targets the intersection of $\mathbb{G}_1$ and $\mathbb{G}_2$. Seven instruction-tuned LLMs are tested across retrieval sources {No-RAG, $\mathbb{G}_1$, $\mathbb{G}_2$, $\mathbb{G}_1$ + $\mathbb{G}_2$, $\mathbb{G}_3$, $\mathbb{G}_1$+$\mathbb{G}_2$ + $\mathbb{G}_3$} and three decoding temperatures. Results show that scope alignment between probe and KG is decisive: precise, scope-matched retrieval (notably $\mathbb{G}_2$) yields the most consistent gains, whereas indiscriminate graph unions often introduce distractors that reduce accuracy. Larger models frequently match or exceed KG-RAG with a No-RAG baseline on Probe 1, indicating strong parametric priors, whereas smaller/mid-sized models benefit more from well-scoped retrieval. Temperature plays a secondary role; higher values rarely help. We conclude that precision-first, scope-matched KG-RAG is preferable to breadth-first unions, and we outline practical guidelines for graph selection, model sizing, and retrieval/reranking. Code and Data available here - https://github.com/sydneyanuyah/RAGComparison
- Abstract(参考訳): 大規模言語モデル(LLM)は、流動的な答えを生成するが、信頼できるドメイン固有の推論に苦労する可能性がある。
我々は,3つのPubMedグラフ(T2DM),$\mathbb{G}_2$(Alzheimer病),$\mathbb{G}_3$(AD+T2DM),$\mathbb{G}_3$(AD+T2DM)を構築することにより,ドメイン知識グラフ(KGs)が医療用検索用RAG(Retrieval-Augmented Generation)を改善するか否かを評価する。
Probe 1 は AD T2DM の知識を融合させ、Probe 2 は $\mathbb{G}_1$ と $\mathbb{G}_2$ の交差点を目標とする。
No-RAG, $\mathbb{G}_1$, $\mathbb{G}_2$, $\mathbb{G}_1$ + $\mathbb{G}_2$, $\mathbb{G}_3$, $\mathbb{G}_1$+$\mathbb{G}_2$, $\mathbb{G}_3$} そして3つの復号温度。
精度の高いスコープマッチングされた検索(特に$\mathbb{G}_2$)は最も一貫した利得をもたらすが、非差別グラフ結合は精度を低下させる散逸をしばしば導入する。
より大型のモデルは、プローブ1のNo-RAGベースラインとKG-RAGによく一致するか、あるいは超えている。
温度は二次的な役割を担っており、高い値はほとんど役に立たない。
我々は、精度優先のスコープマッチングKG-RAGが、幅優先のユニオンよりも好ましいことを結論し、グラフ選択、モデルサイズ、検索/更新のための実践的ガイドラインを概説する。
Code and Data available here - https://github.com/sydneyanuyah/RAGComparison
関連論文リスト
- Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - HyperGraphRAG: Retrieval-Augmented Generation via Hypergraph-Structured Knowledge Representation [35.50575550094956]
ハイパーエッジによるn-aryリレーショナル事実を表す新しいグラフベースRAG法であるHyperGraphRAGを提案する。
医学、農業、コンピュータ科学、法をまたいだ実験では、HyperGraphRAGは標準的なRAG法と従来のグラフベースのRAG法の両方で、精度、検索効率、生成品質に優れていた。
論文 参考訳(メタデータ) (2025-03-27T10:01:16Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - $\mathbb{VD}$-$\mathbb{GR}$: Boosting $\mathbb{V}$isual
$\mathbb{D}$ialog with Cascaded Spatial-Temporal Multi-Modal
$\mathbb{GR}$aphs [11.748363745275617]
本稿では,事前学習言語モデル(LM)とグラフニューラルネットワーク(GNN)を組み合わせた新しいビジュアルダイアログモデルを提案する。
mathbbVD$-$mathbbGR$のコアとなるのは、空間的時間的マルチモーダルGNNとBERT層を交換する新しい統合メカニズムである。
我々は、$mathbbVD$-$mathbbGR$が4つのデータセットにまたがって新しい最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2023-10-25T12:25:53Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Seeded graph matching for the correlated Gaussian Wigner model via the projected power method [5.639451539396459]
グラフマッチングアルゴリズムとして,Emphprojected Power Method (PPM) の性能解析を行った。
PPM は定数 $sigma$ の反復でも機能し、(Mao et al. 2023) のスパース相関エルドス・レニー(CER) モデルに対する解析を (dense) CGW モデルに拡張する。
論文 参考訳(メタデータ) (2022-04-08T14:31:26Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Adversarial Linear Contextual Bandits with Graph-Structured Side
Observations [80.95090605985042]
学習エージェントは、$d$-dimensionalコンテキストベクトルで提示された後、一連の$k$アクションから繰り返し選択する。
エージェントは選択されたアクションの損失を誘発し、観察するが、観察構造における隣り合うアクションの損失も観察する。
textttEXP3に基づく2つの効率的なアルゴリズムが開発された。
論文 参考訳(メタデータ) (2020-12-10T15:40:07Z) - AlgebraNets [35.311476442807766]
本研究では, enwiki8 と WikiText-103 データセットを用いて代用代数学を数値表現として研究する。
我々は$mathbbC$, $mathbbH$, $M_2(mathbbR)$, $M_3(mathbbR)$, $M_4(mathbbR)$を考える。
これらの代数の乗法は実乗法よりも計算密度が高い。
論文 参考訳(メタデータ) (2020-06-12T17:51:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。