論文の概要: Tissue-Contrastive Semi-Masked Autoencoders for Segmentation Pretraining on Chest CT
- arxiv url: http://arxiv.org/abs/2407.08961v1
- Date: Fri, 12 Jul 2024 03:24:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:56:38.772433
- Title: Tissue-Contrastive Semi-Masked Autoencoders for Segmentation Pretraining on Chest CT
- Title(参考訳): 胸部CTにおけるセグメンテーション前訓練のための組織競合性セミマスクオートエンコーダ
- Authors: Jie Zheng, Ru Wen, Haiqin Hu, Lina Wei, Kui Su, Wei Chen, Chen Liu, Jun Wang,
- Abstract要約: 胸部CT画像のモデリングのための組織コントラストセミマスクオートエンコーダ(TCS-MAE)と呼ばれるMIM法を提案する。
本手法は, 組織型マスキング再構成法により, より微細な解剖学的特徴を捉えるとともに, マスク画像とオリジナル画像との対比学習を施した二重AEアーキテクチャを設計した。
- 参考スコア(独自算出の注目度): 10.40407976789742
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing Masked Image Modeling (MIM) depends on a spatial patch-based masking-reconstruction strategy to perceive objects'features from unlabeled images, which may face two limitations when applied to chest CT: 1) inefficient feature learning due to complex anatomical details presented in CT images, and 2) suboptimal knowledge transfer owing to input disparity between upstream and downstream models. To address these issues, we propose a new MIM method named Tissue-Contrastive Semi-Masked Autoencoder (TCS-MAE) for modeling chest CT images. Our method has two novel designs: 1) a tissue-based masking-reconstruction strategy to capture more fine-grained anatomical features, and 2) a dual-AE architecture with contrastive learning between the masked and original image views to bridge the gap of the upstream and downstream models. To validate our method, we systematically investigate representative contrastive, generative, and hybrid self-supervised learning methods on top of tasks involving segmenting pneumonia, mediastinal tumors, and various organs. The results demonstrate that, compared to existing methods, our TCS-MAE more effectively learns tissue-aware representations, thereby significantly enhancing segmentation performance across all tasks.
- Abstract(参考訳): 既存のマスク付き画像モデリング(MIM)は、胸部CTに適用した場合の2つの制限に直面する未ラベル画像から物体の像を知覚するための空間パッチベースのマスク再構築戦略に依存している。
1)CT画像に示される複雑な解剖学的詳細による非効率な特徴学習
2)上流モデルと下流モデルとの入力格差による準最適知識伝達。
これらの課題に対処するため,胸部CT画像のモデリングのためのCTS-MAEと呼ばれる新しいMIM法を提案する。
私たちの手法には2つの新しい設計があります。
1)より微細な解剖学的特徴を捉えるための組織ベースのマスキング・リコンストラクション戦略
2) 上流モデルと下流モデルのギャップを埋めるために,マスクとオリジナル画像ビューの対比学習を施したデュアルAEアーキテクチャ。
本手法の有効性を検証するために, 肺炎, 縦隔腫瘍, 各種臓器の分節化に関わる課題に対して, 代表的コントラスト, 生成的, ハイブリッド自己教師型学習法を体系的に検討した。
その結果,既存の手法と比較して組織認識表現をより効果的に学習し,全タスクのセグメンテーション性能を大幅に向上させることができた。
関連論文リスト
- 2D-3D Deformable Image Registration of Histology Slide and Micro-CT with ML-based Initialization [2.1409936129568377]
軟部組織CTの画質は低かったため,組織スライドとmuCTとの相関が困難であった。
本稿では,新しい2D-3Dマルチモーダルデフォルマブル画像登録法を提案する。
論文 参考訳(メタデータ) (2024-10-18T09:51:43Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - AG-CRC: Anatomy-Guided Colorectal Cancer Segmentation in CT with
Imperfect Anatomical Knowledge [9.961742312147674]
自動生成臓器マスクを利用する新しい解剖ガイドセグメンテーションフレームワークを開発した。
提案手法を2つのCRCセグメンテーションデータセット上で広範囲に評価する。
論文 参考訳(メタデータ) (2023-10-07T03:22:06Z) - DEPAS: De-novo Pathology Semantic Masks using a Generative Model [0.0]
DEPASと呼ばれるスケーラブルな生成モデルを導入し、組織構造をキャプチャし、最先端の品質の高精細なセマンティックマスクを生成する。
我々は,DEPASが皮膚,前立腺,肺の3種類の臓器に対して,組織の現実的な意味マップを生成する能力を示した。
論文 参考訳(メタデータ) (2023-02-13T16:48:33Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - LEARN++: Recurrent Dual-Domain Reconstruction Network for Compressed
Sensing CT [17.168584459606272]
LEARN++モデルは、2つの並列およびインタラクティブワークを統合して、画像と投影ドメインの両方で画像復元とシングラムインペインティング操作を同時に実行します。
その結果,learn++モデルは,アーティファクトの削減と細部保存の両面で,いくつかの最先端手法と比較して,競争力のある質的,定量的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-12-13T07:00:50Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。