論文の概要: MMIS-Net for Retinal Fluid Segmentation and Detection
- arxiv url: http://arxiv.org/abs/2508.13936v1
- Date: Tue, 19 Aug 2025 15:27:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.987724
- Title: MMIS-Net for Retinal Fluid Segmentation and Detection
- Title(参考訳): 網膜流体セグメンテーションと検出のためのMMIS-Net
- Authors: Nchongmaje Ndipenocha, Alina Mirona, Kezhi Wanga, Yongmin Li,
- Abstract要約: 本稿では,MMIS-Net(MultiModal Medical Image Network)を提案する。
MMIS-Netは、2つのモデルを構築するために、2つのモードにわたる19の臓器を含む10のデータセットでトレーニングされた。
- 参考スコア(独自算出の注目度): 1.0624606551524207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Deep learning methods have shown promising results in the segmentation, and detection of diseases in medical images. However, most methods are trained and tested on data from a single source, modality, organ, or disease type, overlooking the combined potential of other available annotated data. Numerous small annotated medical image datasets from various modalities, organs, and diseases are publicly available. In this work, we aim to leverage the synergistic potential of these datasets to improve performance on unseen data. Approach: To this end, we propose a novel algorithm called MMIS-Net (MultiModal Medical Image Segmentation Network), which features Similarity Fusion blocks that utilize supervision and pixel-wise similarity knowledge selection for feature map fusion. Additionally, to address inconsistent class definitions and label contradictions, we created a one-hot label space to handle classes absent in one dataset but annotated in another. MMIS-Net was trained on 10 datasets encompassing 19 organs across 2 modalities to build a single model. Results: The algorithm was evaluated on the RETOUCH grand challenge hidden test set, outperforming large foundation models for medical image segmentation and other state-of-the-art algorithms. We achieved the best mean Dice score of 0.83 and an absolute volume difference of 0.035 for the fluids segmentation task, as well as a perfect Area Under the Curve of 1 for the fluid detection task. Conclusion: The quantitative results highlight the effectiveness of our proposed model due to the incorporation of Similarity Fusion blocks into the network's backbone for supervision and similarity knowledge selection, and the use of a one-hot label space to address label class inconsistencies and contradictions.
- Abstract(参考訳): 目的: 深層学習法は, 医用画像中の疾患のセグメンテーション, 検出において有望な結果を示した。
しかし、ほとんどのメソッドは、単一のソース、モダリティ、オルガン、または病気タイプのデータに基づいてトレーニングされ、テストされる。
様々なモダリティ、臓器、疾患からの多数の小さな注釈付き医療画像データセットが公開されている。
本研究では、これらのデータセットの相乗的ポテンシャルを活用して、目に見えないデータの性能を向上させることを目的とする。
アプローチ: この目的のために, MMIS-Net (MultiModal Medical Image Segmentation Network) と呼ばれる新しいアルゴリズムを提案する。
さらに、一貫性のないクラス定義とラベルの矛盾に対処するために、1つのデータセットに存在しないクラスを処理し、別のデータセットに注釈付けする1ホットのラベル空間を作成しました。
MMIS-Netは、2つのモデルを構築するために、2つのモードにわたる19の臓器を含む10のデータセットでトレーニングされた。
結果: このアルゴリズムは,RETOUCH大挑戦隠れテストセットで評価され,医用画像セグメンテーションやその他の最先端アルゴリズムの基盤モデルよりも優れていた。
我々は, 流体分断作業におけるDiceスコア0.83, 絶対体積差0.035, 流体検出作業におけるArea Under the Curve of 1を達成した。
結論: 定量的な結果から, ネットワークのバックボーンに類似性融合ブロックを組み込んで, 監視と類似性知識の選択を行い, ラベルの不整合や矛盾に対処するために, ワンホットラベル空間を用いることにより, 提案モデルの有効性が示された。
関連論文リスト
- KAN-Mamba FusionNet: Redefining Medical Image Segmentation with Non-Linear Modeling [3.2971993272923443]
医用画像のセグメンテーション精度を向上させるために,新しいアーキテクチャであるkan-Mamba FusionNetを提案する。
IoUとF1スコアの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2024-11-18T09:19:16Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Pseudo Label-Guided Data Fusion and Output Consistency for
Semi-Supervised Medical Image Segmentation [9.93871075239635]
より少ないアノテーションで医用画像のセグメンテーションを行うための平均教師ネットワーク上に構築されたPLGDFフレームワークを提案する。
本稿では,ラベル付きデータとラベルなしデータを組み合わせてデータセットを効果的に拡張する,新しい擬似ラベル利用方式を提案する。
本フレームワークは,最先端の6つの半教師あり学習手法と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2023-11-17T06:36:43Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。