論文の概要: Influence of Early through Late Fusion on Pancreas Segmentation from Imperfectly Registered Multimodal MRI
- arxiv url: http://arxiv.org/abs/2409.04563v1
- Date: Fri, 6 Sep 2024 18:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 22:10:46.307359
- Title: Influence of Early through Late Fusion on Pancreas Segmentation from Imperfectly Registered Multimodal MRI
- Title(参考訳): 未登録マルチモーダルMRIからの膵分画に対する早期-後期核融合の影響
- Authors: Lucas W. Remedios, Han Liu, Samuel W. Remedios, Lianrui Zuo, Adam M. Saunders, Shunxing Bao, Yuankai Huo, Alvin C. Powers, John Virostko, Bennett A. Landman,
- Abstract要約: 本研究の主な課題は, 1) 膵が変形し, 2) 呼吸が腹部を変形させることである。
膵癌に合併した163例のT2強調画像(T2w)とT1強調画像(T1w)を353対使用した。
我々は,融合点の異なる基本単位の集合を早期から後期に分けて訓練し,不完全整列画像上での分割性能が早期から後期の融合性能に与える影響を評価する。
- 参考スコア(独自算出の注目度): 9.964162206500681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal fusion promises better pancreas segmentation. However, where to perform fusion in models is still an open question. It is unclear if there is a best location to fuse information when analyzing pairs of imperfectly aligned images. Two main alignment challenges in this pancreas segmentation study are 1) the pancreas is deformable and 2) breathing deforms the abdomen. Even after image registration, relevant deformations are often not corrected. We examine how early through late fusion impacts pancreas segmentation. We used 353 pairs of T2-weighted (T2w) and T1-weighted (T1w) abdominal MR images from 163 subjects with accompanying pancreas labels. We used image registration (deeds) to align the image pairs. We trained a collection of basic UNets with different fusion points, spanning from early to late, to assess how early through late fusion influenced segmentation performance on imperfectly aligned images. We assessed generalization of fusion points on nnUNet. The single-modality T2w baseline using a basic UNet model had a Dice score of 0.73, while the same baseline on the nnUNet model achieved 0.80. For the basic UNet, the best fusion approach occurred in the middle of the encoder (early/mid fusion), which led to a statistically significant improvement of 0.0125 on Dice score compared to the baseline. For the nnUNet, the best fusion approach was na\"ive image concatenation before the model (early fusion), which resulted in a statistically significant Dice score increase of 0.0021 compared to baseline. Fusion in specific blocks can improve performance, but the best blocks for fusion are model specific, and the gains are small. In imperfectly registered datasets, fusion is a nuanced problem, with the art of design remaining vital for uncovering potential insights. Future innovation is needed to better address fusion in cases of imperfect alignment of abdominal image pairs.
- Abstract(参考訳): マルチモーダル融合は膵セグメンテーションの改善を約束する。
しかし、モデルでの融合をどこで行うかはまだ未解決の問題である。
不完全な整列画像のペアを分析する際に、情報を融合する最善の場所があるかどうかは不明である。
この膵分節研究における2つの主要なアライメント課題
1)膵臓は変形し,変形する
2)呼吸は腹部を変形させる。
画像登録後も、関連する変形は修正されないことが多い。
早期から後期の融合が膵セグメンテーションに与える影響について検討した。
膵癌に合併した163例のT2強調画像(T2w)とT1強調画像(T1w)を353対使用した。
画像のペアを調整するために、画像登録 (deeds) を使いました。
我々は,融合点の異なる基本単位の集合を早期から後期に分けて訓練し,不完全整列画像上での分割性能が早期から後期の融合性能に与える影響を評価する。
我々は nnUNet 上での核融合点の一般化を評価した。
基本的なUNetモデルを用いた単一モードのT2wベースラインはDiceスコアが0.73であり、nnUNetモデルと同じベースラインは0.80である。
基本UNetでは、エンコーダ(初期/中核融合)の中央で最良の融合アプローチが行われ、ベースラインに比べてDiceスコアが0.0125に統計的に顕著に向上した。
nnUNetにとって最も良い融合アプローチは、モデル(初期核融合)よりも前の「生きた画像結合」であり、その結果、ベースラインに比べて統計的に有意なDiceスコアが0.0021増加した。
特定のブロックの融合は性能を向上させるが、融合のための最良のブロックはモデル固有であり、ゲインは小さい。
不完全な登録データセットでは、融合は微妙な問題であり、潜在的な洞察を明らかにするためには設計技術が不可欠である。
腹腔イメージペアの不完全なアライメントの場合, 核融合に対処するためには, 今後のイノベーションが必要である。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - FusionINN: Decomposable Image Fusion for Brain Tumor Monitoring [6.45135260209391]
本稿では,新しい分解可能な画像融合フレームワークFusionINNを紹介する。
融合画像の分解可能性について初めて検討する。
我々のアプローチは、高速で質的に優れた融合結果を提供する。
論文 参考訳(メタデータ) (2024-03-23T08:54:03Z) - Fuzzy Rank-based Late Fusion Technique for Cytology image Segmentation [1.791005104399795]
画像分割のためのファジィを用いたレイトフュージョン技術について検討した。
この融合ルールは、UNet、SegNet、PSPNetの3つの伝統的なセマンティックセグメンテーションモデルを統合する。
我々はHErlevデータセットとJUCYT-v1データセットで84.27%、83.79%のMeanIoUスコアを達成した。
論文 参考訳(メタデータ) (2024-03-16T10:33:02Z) - SCPMan: Shape Context and Prior Constrained Multi-scale Attention
Network for Pancreatic Segmentation [39.70422146937986]
本稿では,頑健な膵分断のための形状コンテキストと事前制約を備えたマルチスケールアテンションネットワークを提案する。
我々のアーキテクチャは、ぼやけた境界に対する堅牢なセグメンテーション性能と、スケールと膵の形状の変化を提供する。
論文 参考訳(メタデータ) (2023-12-26T03:00:25Z) - A New Multimodal Medical Image Fusion based on Laplacian Autoencoder
with Channel Attention [3.1531360678320897]
ディープラーニングモデルは、非常に堅牢で正確なパフォーマンスでエンドツーエンドの画像融合を実現した。
ほとんどのDLベースの融合モデルは、学習可能なパラメータや計算量を最小限に抑えるために、入力画像上でダウンサンプリングを行う。
本稿では,ラープラシア・ガウス統合とアテンションプールを融合したマルチモーダル医用画像融合モデルを提案する。
論文 参考訳(メタデータ) (2023-10-18T11:29:53Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - MLC at HECKTOR 2022: The Effect and Importance of Training Data when
Analyzing Cases of Head and Neck Tumors using Machine Learning [0.9166327220922845]
本稿では,MICCAI 2022で行われたHECKTOR大挑戦の2022年版に対して,チームMLCが行った成果について述べる。
ポジトロン・エミッション・トモグラフィ(PET)とCT(CT)画像の解析は予後を診断するために提案されている。
論文 参考訳(メタデータ) (2022-11-30T09:04:27Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。