論文の概要: IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction
- arxiv url: http://arxiv.org/abs/2103.15587v1
- Date: Mon, 29 Mar 2021 13:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:20:10.307632
- Title: IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction
- Title(参考訳): IA-GCN:病気予測のための解釈型注意に基づくグラフ畳み込みネットワーク
- Authors: Anees Kazi, Soroush Farghadani, Nassir Navab
- Abstract要約: タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
- 参考スコア(独自算出の注目度): 47.999621481852266
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpretability in Graph Convolutional Networks (GCNs) has been explored to
some extent in computer vision in general, yet, in the medical domain, it
requires further examination. Moreover, most of the interpretability approaches
for GCNs, especially in the medical domain, focus on interpreting the model in
a post hoc fashion. In this paper, we propose an interpretable graph
learning-based model which 1) interprets the clinical relevance of the input
features towards the task, 2) uses the explanation to improve the model
performance and, 3) learns a population level latent graph that may be used to
interpret the cohort's behavior. In a clinical scenario, such a model can
assist the clinical experts in better decision-making for diagnosis and
treatment planning. The main novelty lies in the interpretable attention module
(IAM), which directly operates on multi-modal features. Our IAM learns the
attention for each feature based on the unique interpretability-specific
losses. We show the application on two publicly available datasets, Tadpole and
UKBB, for three tasks of disease, age, and gender prediction. Our proposed
model shows superior performance with respect to compared methods with an
increase in an average accuracy of 3.2% for Tadpole, 1.6% for UKBB Gender, and
2% for the UKBB Age prediction task. Further, we show exhaustive validation and
clinical interpretation of our results.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcns)の解釈性はコンピュータビジョン全般においてある程度研究されてきたが、医学領域ではさらなる検討が必要である。
さらに、GCNの解釈可能性のアプローチの多くは、特に医療領域において、ポストホックな方法でモデルを解釈することに焦点を当てている。
本稿では,1)タスクに対する入力特徴の臨床的関連性を解釈し,2)モデル性能を改善するために説明を用いて,3)コホートの振る舞いを解釈するために用いられる集団レベルの潜在グラフを学習する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、診断および治療計画のためのより良い意思決定において、臨床専門家を助けることができる。
主な特徴は解釈可能なアテンションモジュール(IAM)であり、マルチモーダル機能を直接運用している。
我々のIAMは、ユニークな解釈可能性固有の損失に基づいて、各特徴の注意を学習する。
tadpole と ukbb という2つの公開データセットで,疾患,年齢,性別予測の3つのタスクについて紹介する。
提案モデルは,タッドポールの平均精度が3.2%,ukbb性別が1.6%,ukbb年齢予測タスクが2%と,比較法において優れた性能を示す。
さらに,本研究の結果の徹底した検証と臨床解釈を示す。
関連論文リスト
- Semi-Supervised Graph Representation Learning with Human-centric
Explanation for Predicting Fatty Liver Disease [2.992602379681373]
本研究では,半教師付き学習フレームワークにおけるグラフ表現学習の可能性について検討する。
本手法は,健康診断データからリスクパターンを識別する対象類似性グラフを構築する。
論文 参考訳(メタデータ) (2024-03-05T08:59:45Z) - Classification of developmental and brain disorders via graph
convolutional aggregation [6.6356049194991815]
本稿では,グラフサンプリングにおける集約を利用したアグリゲータ正規化グラフ畳み込みネットワークを提案する。
提案モデルは,画像特徴と非画像特徴の両方をグラフノードとエッジに組み込むことで,識別グラフノード表現を学習する。
我々は、自閉症脳画像データ交換(ABIDE)とアルツハイマー病神経イメージングイニシアチブ(ADNI)という2つの大きなデータセット上の最近のベースライン手法と比較して、我々のモデルをベンチマークした。
論文 参考訳(メタデータ) (2023-11-13T14:36:29Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Graph-Ensemble Learning Model for Multi-label Skin Lesion Classification
using Dermoscopy and Clinical Images [7.159532626507458]
本研究では,グラフ畳み込みネットワーク(GCN)を導入し,相関行列として各カテゴリ間の先行的共起を多ラベル分類のためのディープラーニングモデルに活用する。
本稿では,GCNからの予測を融合モデルからの予測の補完情報とみなすグラフ・アンサンブル学習モデルを提案する。
論文 参考訳(メタデータ) (2023-07-04T13:19:57Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - Latent-Graph Learning for Disease Prediction [44.26665239213658]
我々は,GCNの下流における疾患分類の課題に向けて,一つの最適なグラフを学習することが可能であることを示す。
一般的に用いられているスペクトルGCNアプローチとは異なり、我々のGCNは空間的かつ誘導的であり、これまで見られなかった患者も推測できる。
論文 参考訳(メタデータ) (2020-03-27T08:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。