論文の概要: A Multi-view Impartial Decision Network for Frontotemporal Dementia
Diagnosis
- arxiv url: http://arxiv.org/abs/2307.04981v1
- Date: Tue, 11 Jul 2023 02:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 16:31:45.355162
- Title: A Multi-view Impartial Decision Network for Frontotemporal Dementia
Diagnosis
- Title(参考訳): 前頭側頭側認知症診断のための多視点不偏決定ネットワーク
- Authors: Guoyao Deng, Ke Zou, Meng Wang, Xuedong Yuan, Sancong Ying, and Huazhu
Fu
- Abstract要約: 現在のFTD識別法には2つの制限がある。
FTDの分類には、fMRI(Multi-view functional magnetic resonance imaging)の可能性を利用していない。
fMRIにおけるFTD診断のためのMID-Net(Multi-view Impartial decision Network)を提案する。
- 参考スコア(独自算出の注目度): 28.60160915742077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Frontotemporal Dementia (FTD) diagnosis has been successfully progress using
deep learning techniques. However, current FTD identification methods suffer
from two limitations. Firstly, they do not exploit the potential of multi-view
functional magnetic resonance imaging (fMRI) for classifying FTD. Secondly,
they do not consider the reliability of the multi-view FTD diagnosis. To
address these limitations, we propose a reliable multi-view impartial decision
network (MID-Net) for FTD diagnosis in fMRI. Our MID-Net provides confidence
for each view and generates a reliable prediction without any conflict. To
achieve this, we employ multiple expert models to extract evidence from the
abundant neural network information contained in fMRI images. We then introduce
the Dirichlet Distribution to characterize the expert class probability
distribution from an evidence level. Additionally, a novel Impartial Decision
Maker (IDer) is proposed to combine the different opinions inductively to
arrive at an unbiased prediction without additional computation cost. Overall,
our MID-Net dynamically integrates the decisions of different experts on FTD
disease, especially when dealing with multi-view high-conflict cases. Extensive
experiments on a high-quality FTD fMRI dataset demonstrate that our model
outperforms previous methods and provides high uncertainty for hard-to-classify
examples. We believe that our approach represents a significant step toward the
deployment of reliable FTD decision-making under multi-expert conditions. We
will release the codes for reproduction after acceptance.
- Abstract(参考訳): 前頭側頭型認知症 (FTD) の診断は深層学習技術を用いて順調に進んでいる。
しかし、現在のFTD識別法には2つの制限がある。
第一に、彼らはFTDの分類にマルチビュー機能的磁気共鳴イメージング(fMRI)の可能性を利用していない。
第2に,多視点FTD診断の信頼性を考慮しない。
これらの制約に対処するために、fMRIにおけるFTD診断のための信頼性のあるマルチビュー公平決定ネットワーク(MID-Net)を提案する。
我々のMID-Netは、それぞれの見解に信頼を与え、矛盾なく信頼できる予測を生成する。
これを実現するために,複数のエキスパートモデルを用いて,fmri画像に含まれる豊富なニューラルネットワーク情報から証拠を抽出する。
次に、エビデンスレベルから専門家クラスの確率分布を特徴付けるためにディリクレ分布を導入する。
さらに,新たなImpartial Decision Maker (IDer) が提案され,新たな計算コストを伴わずに不偏予測に到達するために,異なる意見を組み合わせることができる。
MID-Netは、特に多視点高コンフリクトケースを扱う場合、FTD病の専門家による決定を動的に統合する。
高品質FTD fMRIデータセットの大規模な実験により、我々のモデルは従来の手法よりも優れており、分類の難しい例に対して高い不確実性をもたらすことが示された。
提案手法は,マルチエキスパート条件下での信頼性FTD意思決定の展開に向けた重要な一歩であると考えられる。
受け入れ後、再生のためのコードをリリースします。
関連論文リスト
- RADAR: Robust Two-stage Modality-incomplete Industrial Anomaly Detection [61.71770293720491]
本稿では,2段階のロバスト・モードアリティ不完全融合とFlaAmewoRkの検出について提案する。
我々のブートストラッピング哲学は、MIIADの2段階を強化し、マルチモーダルトランスの堅牢性を向上させることである。
実験の結果,提案手法は従来のMIAD法よりも有効性とロバスト性に優れていた。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - ETSCL: An Evidence Theory-Based Supervised Contrastive Learning Framework for Multi-modal Glaucoma Grading [7.188153974946432]
緑内障は視覚障害の主要な原因の1つである。
医用画像の類似度が高いことと、不均衡なマルチモーダルデータ分布のため、信頼性の高い特徴を抽出することは依然として困難である。
コントラストのある特徴抽出段階と決定レベルの融合段階からなる新しいフレームワークであるETSCLを提案する。
論文 参考訳(メタデータ) (2024-07-19T11:57:56Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Deep evidential fusion with uncertainty quantification and contextual discounting for multimodal medical image segmentation [12.027233181141394]
本稿では,深層学習とDempster-Shafer理論に基づくマルチモーダル医用画像セグメンテーションの枠組みを提案する。
脳腫瘍を伴うPET-CTデータセットとマルチMRIデータセットによる実験結果から,本手法は精度と信頼性において最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-12T02:23:30Z) - Annotator Consensus Prediction for Medical Image Segmentation with
Diffusion Models [70.3497683558609]
医療画像のセグメンテーションにおける大きな課題は、複数の専門家が提供したアノテーションにおける、サーバ間の大きなばらつきである。
拡散モデルを用いたマルチエキスパート予測のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:01:05Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions [49.4545260500952]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoStについて紹介する。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
論文 参考訳(メタデータ) (2023-03-17T06:18:16Z) - Multi-objective optimization determines when, which and how to fuse deep
networks: an application to predict COVID-19 outcomes [1.8351254916713304]
マルチモーダル・エンド・ツー・エンドモデルのセットアップを最適化する新しい手法を提案する。
我々はAIforCOVIDデータセット上でテストを行い、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-04-07T23:07:33Z) - Multi-Modal Multi-Instance Learning for Retinal Disease Recognition [10.294738095942812]
我々は、特定の症例に対する複数の視覚障害を認識できるディープニューラルネットワークの構築を目指している。
データ取得と手動ラベリングは医療分野では非常に高価であるため、ネットワークは比較的軽量でなければならない。
論文 参考訳(メタデータ) (2021-09-25T08:16:47Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。