論文の概要: Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions
- arxiv url: http://arxiv.org/abs/2303.09790v1
- Date: Fri, 17 Mar 2023 06:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:31:20.580781
- Title: Reliable Multimodality Eye Disease Screening via Mixture of Student's t
Distributions
- Title(参考訳): 学生のt分布の混合による多目的眼疾患スクリーニング
- Authors: Ke Zou and Tian Lin and Xuedong Yuan and Haoyu Chen and Xiaojing Shen
and Meng Wang and Huazhu Fu
- Abstract要約: 眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインEyeMoS$t$を紹介した。
本モデルでは,一様性に対する局所的不確実性と融合モードに対する大域的不確実性の両方を推定し,信頼性の高い分類結果を生成する。
パブリックデータセットと社内データセットの両方に関する実験結果から、我々のモデルは現在の手法よりも信頼性が高いことが判明した。
- 参考スコア(独自算出の注目度): 40.52659936041553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodality eye disease screening is crucial in ophthalmology as it
integrates information from diverse sources to complement their respective
performances. However, the existing methods are weak in assessing the
reliability of each unimodality, and directly fusing an unreliable modality may
cause screening errors. To address this issue, we introduce a novel
multimodality evidential fusion pipeline for eye disease screening, EyeMoS$t$,
which provides a measure of confidence for unimodality and elegantly integrates
the multimodality information from a multi-distribution fusion perspective.
Specifically, our model estimates both local uncertainty for unimodality and
global uncertainty for the fusion modality to produce reliable classification
results. More importantly, the proposed mixture of Student's $t$ distributions
adaptively integrates different modalities to endow the model with heavy-tailed
properties, increasing robustness and reliability. Our experimental findings on
both public and in-house datasets show that our model is more reliable than
current methods. Additionally, EyeMos$t$ has the potential ability to serve as
a data quality discriminator, enabling reliable decision-making for
multimodality eye disease screening.
- Abstract(参考訳): 眼科では多彩な眼疾患スクリーニングが重要であり、それぞれのパフォーマンスを補完するために様々な情報源からの情報を統合している。
しかし、既存の手法は各一様性の信頼性を評価するのに弱いため、信頼できないモダリティを直接融合させるとスクリーニングエラーが発生する可能性がある。
そこで本研究では,眼疾患スクリーニングのためのマルチモダリティ可視化パイプラインであるeyemos$t$を導入し,単モダリティに対する信頼度を測定し,マルチモダリティ情報を多分布融合視点からエレガントに統合する。
具体的には,ユニモダリティの局所的不確かさと融合モダリティのグローバルな不確実性の両方を推定し,信頼性の高い分類結果を得る。
さらに重要なのは、学生の$t$分布の混合案が適応的に異なるモダリティを統合し、モデルに重い尾を持つ特性を付与し、堅牢性と信頼性を高めることである。
パブリックデータセットと社内データセットの両方の実験結果から,我々のモデルは現在の手法よりも信頼性が高いことがわかった。
さらに、eyemos$t$は、データ品質判別器として機能する可能性があり、マルチモダリティ眼疾患スクリーニングのための信頼できる意思決定を可能にする。
関連論文リスト
- M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - Trustworthy Contrast-enhanced Brain MRI Synthesis [27.43375565176473]
多モード医用画像翻訳は、CE-MRI画像を他のモダリティから合成することを目的としている。
マルチモーダル回帰問題として,複数対1の医用画像翻訳問題を再構成する信頼性の高い新しい手法であるTrustI2Iを紹介する。
論文 参考訳(メタデータ) (2024-07-10T05:17:01Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Multimodal Fusion on Low-quality Data: A Comprehensive Survey [110.22752954128738]
本稿では,野生におけるマルチモーダル核融合の共通課題と最近の進歩について考察する。
低品質データ上でのマルチモーダル融合で直面する4つの主な課題を同定する。
この新たな分類によって、研究者はフィールドの状態を理解し、いくつかの潜在的な方向を特定することができる。
論文 参考訳(メタデータ) (2024-04-27T07:22:28Z) - Assessing Uncertainty Estimation Methods for 3D Image Segmentation under
Distribution Shifts [0.36832029288386137]
本稿では, 分布シフトしたサンプルを検出するために, 最先端ベイズ法と非ベイズ法を併用する可能性について検討する。
後部分布における一様あるいは多様の局面を捉えるために, 3つの異なる不確実性推定法を比較した。
その結果, 後方分布におけるマルチモーダル特性に対処できる手法により, より信頼性の高い不確実性推定が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-02-10T12:23:08Z) - Provable Dynamic Fusion for Low-Quality Multimodal Data [94.39538027450948]
動的マルチモーダル融合は、有望な学習パラダイムとして現れる。
広く使われているにもかかわらず、この分野の理論的正当化は依然として顕著に欠落している。
本稿では、一般化の観点から最もポピュラーなマルチモーダル融合フレームワークの下で、この問題に答える理論的理解を提供する。
QMF(Quality-Aware Multimodal Fusion)と呼ばれる新しいマルチモーダル融合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-03T08:32:35Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。