論文の概要: Structural Graph Neural Networks with Anatomical Priors for Explainable Chest X-ray Diagnosis
- arxiv url: http://arxiv.org/abs/2601.11987v1
- Date: Sat, 17 Jan 2026 09:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.407458
- Title: Structural Graph Neural Networks with Anatomical Priors for Explainable Chest X-ray Diagnosis
- Title(参考訳): 説明可能な胸部X線診断のための解剖学的先行性を持つ構造グラフニューラルネットワーク
- Authors: Khaled Berkani,
- Abstract要約: 本稿では,説明可能な視覚に基づく診断のために,解剖学的背景を明示的に組み込んだ構造グラフ推論フレームワークを提案する。
推論過程の一部として相対空間関係を明示的にモデル化する独自の構造伝搬機構を導入する。
このフレームワークはドメインに依存しず、人工知能システム全体のグラフベースの推論というより広範なビジョンと一致している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a structural graph reasoning framework that incorporates explicit anatomical priors for explainable vision-based diagnosis. Convolutional feature maps are reinterpreted as patch-level graphs, where nodes encode both appearance and spatial coordinates, and edges reflect local structural adjacency. Unlike conventional graph neural networks that rely on generic message passing, we introduce a custom structural propagation mechanism that explicitly models relative spatial relations as part of the reasoning process. This design enables the graph to act as an inductive bias for structured inference rather than a passive relational representation. The proposed model jointly supports node-level lesion-aware predictions and graph-level diagnostic reasoning, yielding intrinsic explainability through learned node importance scores without relying on post-hoc visualization techniques. We demonstrate the approach through a chest X-ray case study, illustrating how structural priors guide relational reasoning and improve interpretability. While evaluated in a medical imaging context, the framework is domain-agnostic and aligns with the broader vision of graph-based reasoning across artificial intelligence systems. This work contributes to the growing body of research exploring graphs as computational substrates for structure-aware and explainable learning.
- Abstract(参考訳): 本稿では,説明可能な視覚に基づく診断のために,解剖学的背景を明示的に組み込んだ構造グラフ推論フレームワークを提案する。
畳み込み特徴写像はパッチレベルグラフとして再解釈され、ノードは外観と空間座標の両方を符号化し、エッジは局所的な構造的隣接を反映する。
一般的なメッセージパッシングに依存する従来のグラフニューラルネットワークとは異なり、推論プロセスの一部として相対空間関係を明示的にモデル化する独自の構造伝搬機構を導入する。
この設計により、グラフは受動的関係表現よりも構造化推論の帰納バイアスとして振る舞うことができる。
提案モデルは,ノードレベルの病変認識予測とグラフレベルの診断推論を共同でサポートし,学習ノードの重要度スコアによる本質的な説明性を,ポストホックな可視化技術に頼らずに得る。
胸部X線ケーススタディを通じて, 構造的先行が関係推論をどのようにガイドし, 解釈可能性を向上させるかを示す。
医療画像の文脈では評価されるが、このフレームワークはドメインに依存しず、人工知能システム全体にわたるグラフベースの推論の幅広いビジョンと一致している。
この研究は、構造認識と説明可能な学習のための計算基板としてグラフを探索する研究機関の成長に寄与する。
関連論文リスト
- From Priors to Predictions: Explaining and Visualizing Human Reasoning in a Graph Neural Network Framework [0.32834818175343855]
我々は、帰納バイアスを、構造と抽象化に対する明示的で操作可能な先行として定式化する。
グラフに基づく事前の差異は、人間の解の個人差を説明できることを示す。
この研究は、表現的仮定と一般化の基礎となる計算力学をモデル化するための、原則的、解釈可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-12-19T05:56:48Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Diagrammatization and Abduction to Improve AI Interpretability With Domain-Aligned Explanations for Medical Diagnosis [9.904990343076433]
本稿では,解釈可能性のギャップを低減するため,図式および帰納的推論によるドメインアライメントの改善を提案する。
DiagramNetは,心臓の聴診から心臓の診断を予測し,基準評価に基づいて最適な仮説を選定し,臨床的に関連のある大腿骨の図を用いて説明する。
論文 参考訳(メタデータ) (2023-02-02T17:23:28Z) - Automated Coronary Arteries Labeling Via Geometric Deep Learning [13.515293812745343]
血管造影検査から得られた3次元座標データによく適合する直感的なグラフ表現法を提案する。
その後、幾何学的深層学習を用いて対象別グラフの分析を試みる。
提案モデルでは,141例の専門的アノテートラベルを用いて,各冠動脈セグメントの表現を学習し,訓練データにおける解剖学的変動の影響を捉えた。
論文 参考訳(メタデータ) (2022-12-01T09:31:08Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Graph-in-Graph (GiG): Learning interpretable latent graphs in
non-Euclidean domain for biological and healthcare applications [52.65389473899139]
グラフは、医療領域において、非ユークリッドな非ユークリッドデータをユビキタスに表現し、分析するための強力なツールである。
近年の研究では、入力データサンプル間の関係を考慮すると、下流タスクに正の正の正則化効果があることが示されている。
タンパク質分類と脳イメージングのためのニューラルネットワークアーキテクチャであるGraph-in-Graph(GiG)を提案する。
論文 参考訳(メタデータ) (2022-04-01T10:01:37Z) - An explainability framework for cortical surface-based deep learning [110.83289076967895]
我々は,皮質表面の深層学習のためのフレームワークを開発した。
まず,表面データに摂動に基づくアプローチを適用した。
我々の説明可能性フレームワークは,重要な特徴とその空間的位置を識別できるだけでなく,信頼性と有効性も示している。
論文 参考訳(メタデータ) (2022-03-15T23:16:49Z) - Structure-Preserving Graph Kernel for Brain Network Classification [38.707747282886935]
グラフ表現の中で自然に利用可能な構造を利用して、カーネルの事前知識をエンコードする方法を示す。
提案手法は臨床的に解釈可能であるという利点がある。
論文 参考訳(メタデータ) (2021-11-21T12:03:19Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Visualization for Histopathology Images using Graph Convolutional Neural
Networks [1.8939984161954087]
我々は、組織組織を核のグラフとしてモデル化するアプローチを採用し、疾患診断のためのグラフ畳み込みネットワークフレームワークを開発した。
我々は,浸潤性乳癌とin-situ性乳癌の鑑別を訓練し,Gleason 3, 4前立腺癌は解釈可能なビジュアルマップを生成する。
論文 参考訳(メタデータ) (2020-06-16T19:14:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。