論文の概要: Background Matters: A Cross-view Bidirectional Modeling Framework for Semi-supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2505.16625v1
- Date: Thu, 22 May 2025 12:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.299587
- Title: Background Matters: A Cross-view Bidirectional Modeling Framework for Semi-supervised Medical Image Segmentation
- Title(参考訳): 背景事項:半教師型医用画像セグメンテーションのためのクロスビュー双方向モデリングフレームワーク
- Authors: Luyang Cao, Jianwei Li, Yinghuan Shi,
- Abstract要約: 半教師付き医用画像セグメンテーションのためのクロスビュー双方向モデリング(CVBM)フレームワークを提案する。
CVBMは背景モデリングを取り入れ、前景モデリング性能を改善する。
提案手法は, LA, Pancreas, ACDC, HRFデータセット上でのSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 22.175342914731605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised medical image segmentation (SSMIS) leverages unlabeled data to reduce reliance on manually annotated images. However, current SOTA approaches predominantly focus on foreground-oriented modeling (i.e., segmenting only the foreground region) and have largely overlooked the potential benefits of explicitly modeling the background region. Our study theoretically and empirically demonstrates that highly certain predictions in background modeling enhance the confidence of corresponding foreground modeling. Building on this insight, we propose the Cross-view Bidirectional Modeling (CVBM) framework, which introduces a novel perspective by incorporating background modeling to improve foreground modeling performance. Within CVBM, background modeling serves as an auxiliary perspective, providing complementary supervisory signals to enhance the confidence of the foreground model. Additionally, CVBM introduces an innovative bidirectional consistency mechanism, which ensures mutual alignment between foreground predictions and background-guided predictions. Extensive experiments demonstrate that our approach achieves SOTA performance on the LA, Pancreas, ACDC, and HRF datasets. Notably, on the Pancreas dataset, CVBM outperforms fully supervised methods (i.e., DSC: 84.57% vs. 83.89%) while utilizing only 20% of the labeled data. Our code is publicly available at https://github.com/caoluyang0830/CVBM.git.
- Abstract(参考訳): 半教師付き医用画像セグメンテーション(SSMIS)は、手動で注釈付けされた画像への依存を減らすためにラベル付けされていないデータを活用する。
しかし、現在のSOTAアプローチは、主にフォアグラウンド指向モデリング(例えば、フォアグラウンド領域のみのセグメンテーション)に焦点を当てており、背景領域を明示的にモデル化する潜在的な利点をほとんど見落としている。
本研究は,背景モデリングにおける高い精度の予測が,対応する前景モデリングの信頼性を高めることを理論的,実証的に実証するものである。
この知見に基づいて,背景モデリングを取り入れ,フォアグラウンドモデリング性能を向上させることによって,新たな視点を取り入れたCVBM(Cross-view Bidirectional Modeling)フレームワークを提案する。
CVBM内では、背景モデリングが補助的な視点として機能し、前景モデルの信頼性を高めるために補完的な監視信号を提供する。
さらにCVBMは、前景予測と背景誘導予測の相互整合性を保証する革新的な双方向整合性機構を導入している。
大規模な実験により, LA, Pancreas, ACDC, HRFデータセット上でのSOTA性能が得られた。
特に、パンクレアデータセットでは、CVBMは完全な教師付き手法(DSC: 84.57% vs. 83.89%)より優れており、ラベル付きデータの20%しか利用していない。
私たちのコードはhttps://github.com/caoluyang0830/CVBM.git.comで公開されています。
関連論文リスト
- Unified Human Localization and Trajectory Prediction with Monocular Vision [64.19384064365431]
MonoTransmotionはトランスフォーマーベースのフレームワークで、モノクロカメラのみを使用して、ローカライゼーションと予測タスクを共同で解決する。
両タスクを統合フレームワークで共同でトレーニングすることにより,ノイズの多い入力による実環境シナリオにおいて,我々の手法がより堅牢であることを示す。
論文 参考訳(メタデータ) (2025-03-05T14:18:39Z) - Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - Advancing Cross-Domain Generalizability in Face Anti-Spoofing: Insights, Design, and Metrics [10.631157315662607]
本稿では,ゼロショットデータ領域の一般化におけるアンチ・スプーフィング性能の向上に向けた新たな視点を提案する。
従来のフレームワイドのスプーフィング予測に先立ち、ビデオワイドの予測のためにフレームレベルの確率を集約するニュアンス付き計量計算を導入する。
最終モデルは、データセット全体で既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-06-18T04:15:22Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Unsupervised Deep Learning Meets Chan-Vese Model [77.24463525356566]
本稿では,Chan-Vese(CV)モデルとディープニューラルネットワークを統合した教師なしのイメージセグメンテーション手法を提案する。
私たちの基本的な考え方は、イメージを潜伏空間にマッピングするディープニューラルネットワークを適用して、画像空間における断片的な定数仮定の違反を軽減することです。
論文 参考訳(メタデータ) (2022-04-14T13:23:57Z) - Stable Optimization for Large Vision Model Based Deep Image Prior in
Cone-Beam CT Reconstruction [6.558735319783205]
LVM(Large Vision Model)は、最近医療画像のタスクにおいて大きな可能性を実証した。
Deep Image Prior(DIP)は、トレーニングされていないニューラルネットワークを効果的にガイドし、トレーニングデータなしで高品質のCBCT画像を生成する。
スパースビューCBCTのためのフォワードモデルフリーDIPモデルの安定最適化法を提案する。
論文 参考訳(メタデータ) (2022-03-23T15:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。