論文の概要: GALAX: Graph-Augmented Language Model for Explainable Reinforcement-Guided Subgraph Reasoning in Precision Medicine
- arxiv url: http://arxiv.org/abs/2509.20935v1
- Date: Thu, 25 Sep 2025 09:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.814003
- Title: GALAX: Graph-Augmented Language Model for Explainable Reinforcement-Guided Subgraph Reasoning in Precision Medicine
- Title(参考訳): GALAX:精密医療における説明可能な強化ガイド付きサブグラフ推論のためのグラフ拡張言語モデル
- Authors: Heming Zhang, Di Huang, Wenyu Li, Michael Province, Yixin Chen, Philip Payne, Fuhai Li,
- Abstract要約: 精密医療では、量的マルチオミックな特徴、トポロジカルコンテキスト、テキスト生物学的知識が、疾患クリティカルなシグナル伝達経路や標的を特定する上で重要な役割を担っている。
我々は、事前学習されたグラフニューラルネットワーク(GNN)をLLM(Large Language Models)に統合する革新的なフレームワークであるGALAXを提案する。
アプリケーションとして,CRISPRを識別したターゲット,マルチオミックプロファイル,および多様ながん細胞株のバイオメディカルグラフ知識を組み合わせたベンチマークであるTarget-QAも導入した。
- 参考スコア(独自算出の注目度): 31.561998419001124
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In precision medicine, quantitative multi-omic features, topological context, and textual biological knowledge play vital roles in identifying disease-critical signaling pathways and targets. Existing pipelines capture only part of these-numerical omics ignore topological context, text-centric LLMs lack quantitative grounded reasoning, and graph-only models underuse node semantics and the generalization of LLMs-limiting mechanistic interpretability. Although Process Reward Models (PRMs) aim to guide reasoning in LLMs, they remain limited by unreliable intermediate evaluation, and vulnerability to reward hacking with computational cost. These gaps motivate integrating quantitative multi-omic signals, topological structure with node annotations, and literature-scale text via LLMs, using subgraph reasoning as the principle bridge linking numeric evidence, topological knowledge and language context. Therefore, we propose GALAX (Graph Augmented LAnguage model with eXplainability), an innovative framework that integrates pretrained Graph Neural Networks (GNNs) into Large Language Models (LLMs) via reinforcement guided by a Graph Process Reward Model (GPRM), which generates disease-relevant subgraphs in a step-wise manner initiated by an LLM and iteratively evaluated by a pretrained GNN, enabling process-level supervision without explicit intermediate reasoning annotations. As an application, we also introduced Target-QA, a benchmark combining CRISPR-identified targets, multi-omic profiles, and biomedical graph knowledge across diverse cancer cell lines, which enables GNN pretraining for supervising step-wise graph construction and supports long-context reasoning over text-numeric graphs (TNGs), providing a scalable and biologically grounded framework for explainable, reinforcement-guided subgraph reasoning toward reliable and interpretable target and pathway discovery in precision medicine.
- Abstract(参考訳): 精密医療では、量的マルチオミックな特徴、トポロジカルコンテキスト、テキスト生物学的知識が、疾患クリティカルなシグナル伝達経路や標的を特定する上で重要な役割を担っている。
既存のパイプラインは、トポロジカルな文脈を無視し、テキスト中心のLLMは定量的な基礎的推論を欠き、グラフのみのモデルではノードの意味論やLLMの制限された機械論的解釈の一般化が行なわれている。
Process Reward Models (PRM) は LLM における推論を導くことを目的としているが、信頼性の低い中間評価と、計算コストでハッキングに報いる脆弱性によって制限されている。
これらのギャップは、数値的エビデンス、トポロジカル知識、言語コンテキストを結合する原理的ブリッジとしてサブグラフ推論を用いて、定量的なマルチオミクス信号、ノードアノテーションを用いたトポロジカル構造、LLMによる文学的テキストの統合を動機付けている。
そこで, GALAX (Graph Augmented LAnguage model with eXplainability) は, グラフ処理リワードモデル (GPRM) によって導かれる強化により, GALAX (Graph Augmented LAnguage model with eXplainability) を大規模言語モデル (LLM) に統合する革新的なフレームワークである。
また,さまざまながん細胞株を対象としたCRISPR識別ターゲット,マルチオミティックプロファイル,バイオメディカルグラフ知識を組み合わせたベンチマークであるTarget-QAを導入し,段階的グラフ構築を監督するためのGNN事前トレーニングを可能にし,テキスト数値グラフ(TNG)を用いた長文推論をサポートし,信頼性と解釈可能なターゲットと経路発見のための,スケーラブルで生物学的に基盤付けられたサブグラフのフレームワークを提供する。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - A Graph Talks, But Who's Listening? Rethinking Evaluations for Graph-Language Models [11.808687414968388]
グラフ言語モデル(GLMs)の開発は、グラフニューラルネットワーク(GNNs)の構造的推論能力と大規模言語モデル(LLMs)の意味的理解を統合することを目的としている。
GLMの現在の評価ベンチマークはマルチモーダル推論を評価するには不十分であることを示す。
CLEGR(Compositional Language-Graph Reasoning)ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-08-28T09:20:47Z) - Tripartite-GraphRAG via Plugin Ontologies [0.011161220996480647]
大規模言語モデル(LLM)は、様々な領域で顕著な能力を示してきたが、知識集約的なタスクに苦戦している。
主な制限は、幻覚の傾向、ソーストレーサビリティの欠如(証明)、タイムリーな知識更新における課題である。
本稿では,LLMと三部構造知識グラフ表現を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-28T10:43:35Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge from Large Language Models [30.867447814409623]
グラフニューラルネットワーク(GNN)は、グラフの基本課題であるノード分類において優れた能力を持つ。
本稿では,Large Language Models(LLM)とGNNを統合する新しい手法を提案する。
我々のモデルでは,ラベル付きデータによるノード分類精度を著しく向上し,最先端のベースラインをかなりのマージンで超えた。
論文 参考訳(メタデータ) (2024-07-19T02:34:10Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。