論文の概要: HU-based Foreground Masking for 3D Medical Masked Image Modeling
- arxiv url: http://arxiv.org/abs/2509.07534v1
- Date: Tue, 09 Sep 2025 09:11:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.248901
- Title: HU-based Foreground Masking for 3D Medical Masked Image Modeling
- Title(参考訳): 3次元医用マスク画像モデリングのためのHUを用いた前景マスキング
- Authors: Jin Lee, Vu Dang, Gwang-Hyun Yu, Anh Le, Zahid Rahman, Jin-Ho Jang, Heonzoo Lee, Kun-Yung Kim, Jin-Sul Kim, Jin-Young Kim,
- Abstract要約: Masked Image Modeling (MIM)はコンピュータビジョンに革命をもたらしたが、3D医療画像コンピューティングにおける採用は限られている。
内臓臓器の強度分布に着目したHUベースフォアグラウンドマスキングを実装し,非分布領域を除外する。
5つの公開3次元医用画像データセットの実験は、マスキングが常にパフォーマンスを向上することを示した。
- 参考スコア(独自算出の注目度): 3.1381929517927354
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While Masked Image Modeling (MIM) has revolutionized fields of computer vision, its adoption in 3D medical image computing has been limited by the use of random masking, which overlooks the density of anatomical objects. To address this limitation, we enhance the pretext task with a simple yet effective masking strategy. Leveraging Hounsfield Unit (HU) measurements, we implement an HU-based Foreground Masking, which focuses on the intensity distribution of visceral organs and excludes non-tissue regions, such as air and fluid, that lack diagnostically meaningful features. Extensive experiments on five public 3D medical imaging datasets demonstrate that our masking consistently improves performance, both in quality of segmentation and Dice score (BTCV:~84.64\%, Flare22:~92.43\%, MM-WHS:~90.67\%, Amos22:~88.64\%, BraTS:~78.55\%). These results underscore the importance of domain-centric MIM and suggest a promising direction for representation learning in medical image segmentation. Implementation is available at github.com/AISeedHub/SubFore/.
- Abstract(参考訳): Masked Image Modeling (MIM) はコンピュータビジョンの分野に革命をもたらしたが、3D医療画像コンピューティングにおける採用は、解剖学的対象の密度を見越したランダムマスキングによって制限されている。
この制限に対処するため、簡単なマスキング戦略でプレテキストタスクを強化する。
HU(Hounsfield Unit)測定を応用して, 内臓の強度分布に着目し, 診断学的に有意な特徴を欠く空気や流体などの非単位領域を除外する, HUベースの前景マスキングを実装した。
5つの公開3D医療画像データセットに対する大規模な実験により、我々のマスキングはセグメンテーションの品質とDiceスコア(BTCV:~84.64\%, Flare22:~92.43\%, MM-WHS:~90.67\%, Amos22:~88.64\%, BraTS:~78.55\%)の両方において、一貫してパフォーマンスを向上させることが示された。
これらの結果は,領域中心MIMの重要性を浮き彫りにして,医用画像セグメンテーションにおける表現学習の有望な方向性を示唆している。
実装はgithub.com/AISeedHub/SubFore/で公開されている。
関連論文リスト
- Interactive Medical Image Segmentation: A Benchmark Dataset and Baseline [16.70515066552565]
IMed-361Mベンチマークデータセットは、一般的なIMIS研究において重要な進歩である。
我々は、複数のデータソースから640万以上の医療画像とその対応する地底真理マスクを収集し、標準化する。
我々は,対話型入力による高品質マスク生成をサポートするIMISベースラインネットワークを開発した。
論文 参考訳(メタデータ) (2024-11-19T19:06:29Z) - AnatoMask: Enhancing Medical Image Segmentation with Reconstruction-guided Self-masking [5.844539603252746]
Masked Image Modeling (MIM) は、ランダムにマスキングされた画像を再構成し、詳細な表現を学習することで効果を示した。
解剖学的に重要な領域を動的に識別・隠蔽するために再構成損失を利用した新しいMIM手法であるAnatoMaskを提案する。
論文 参考訳(メタデータ) (2024-07-09T00:15:52Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through Probabilistic-aware Learning [47.700298779672366]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Semantic segmentation of surgical hyperspectral images under geometric
domain shifts [69.91792194237212]
本稿では、幾何学的アウト・オブ・ディストリビューション(OOD)データの存在下で、最先端のセマンティックセグメンテーションネットワークを初めて分析する。
有機移植(Organ transplantation)と呼ばれる専用の拡張技術により、一般化可能性にも対処する。
提案手法は,SOA DSCの最大67 % (RGB) と90% (HSI) を改善し,実際のOODテストデータ上での分配内性能と同等の性能を示す。
論文 参考訳(メタデータ) (2023-03-20T09:50:07Z) - Self Pre-training with Masked Autoencoders for Medical Image
Classification and Segmentation [37.25161294917211]
Masked Autoencoder (MAE) は自然画像解析のための事前学習型視覚変換器 (ViT) に有効であることが示されている。
医用画像解析タスクにおけるMAEを用いた自己事前学習パラダイムについて検討する。
論文 参考訳(メタデータ) (2022-03-10T16:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。