論文の概要: Accurate Lung Nodules Segmentation with Detailed Representation Transfer
and Soft Mask Supervision
- arxiv url: http://arxiv.org/abs/2007.14556v3
- Date: Thu, 14 Apr 2022 07:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:44:30.446896
- Title: Accurate Lung Nodules Segmentation with Detailed Representation Transfer
and Soft Mask Supervision
- Title(参考訳): 詳細な表現伝達とソフトマスクによる正確な肺結節分割
- Authors: Changwei Wang, Rongtao Xu, Shibiao Xu, Weiliang Meng, Jun Xiao,
Xiaopeng Zhang
- Abstract要約: 肺結節の小ささと多彩さは, 正確な肺結節の分節を困難にする。
我々は、よりリッチで正確なエッジ詳細記述を持つSoft Maskという新しいセグメンテーションマスクを導入する。
肺結節の低解像度像を高品質なセグメンテーション結果に処理するために, 詳細な表現伝達とソフトマスク監視(DSNet)を備えた新しいネットワークを提案する。
- 参考スコア(独自算出の注目度): 19.64536342490214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate lung lesion segmentation from Computed Tomography (CT) images is
crucial to the analysis and diagnosis of lung diseases such as COVID-19 and
lung cancer. However, the smallness and variety of lung nodules and the lack of
high-quality labeling make the accurate lung nodule segmentation difficult. To
address these issues, we first introduce a novel segmentation mask named Soft
Mask which has richer and more accurate edge details description and better
visualization and develop a universal automatic Soft Mask annotation pipeline
to deal with different datasets correspondingly. Then, a novel Network with
detailed representation transfer and Soft Mask supervision (DSNet) is proposed
to process the input low-resolution images of lung nodules into high-quality
segmentation results. Our DSNet contains a special Detail Representation
Transfer Module (DRTM) for reconstructing the detailed representation to
alleviate the small size of lung nodules images, and an adversarial training
framework with Soft Mask for further improving the accuracy of segmentation.
Extensive experiments validate that our DSNet outperforms other
state-of-the-art methods for accurate lung nodule segmentation and has strong
generalization ability in other accurate medical segmentation tasks with
competitive results. Besides, we provide a new challenging lung nodules
segmentation dataset for further studies.
- Abstract(参考訳): CT画像からの正確な肺病変の抽出は、新型コロナウイルスや肺癌などの肺疾患の解析と診断に不可欠である。
しかし,肺結節が小さく多様で,高品質な標識が存在しないため,正確な肺結節の分画が困難であった。
これらの問題に対処するため,まず,よりリッチで正確なエッジ詳細記述と可視化性が向上したsoft maskと呼ばれる新しいセグメンテーションマスクを導入し,異なるデータセットに対応するユニバーサル自動ソフトマスクアノテーションパイプラインを開発した。
そこで, 肺結節の入力低解像度画像を高品質なセグメンテーションに処理するために, 詳細な表現転送とソフトマスク監督(dsnet)を用いた新しいネットワークを提案する。
我々のDSNetには、肺結節画像の小さなサイズを緩和するために詳細な表現を再構築するための特別な詳細表現伝達モジュール(DRTM)と、さらにセグメンテーションの精度を向上させるためのSoft Maskを用いた対角訓練フレームワークが含まれている。
以上の結果から, DSNetは肺結節分節の精度を向上し, 競争力のある他の正確な医学的分節タスクにおいて, 高い一般化能力を有することが明らかとなった。
さらに, 肺結節分節データセットを新たに提供し, さらなる研究を行った。
関連論文リスト
- Shape-aware synthesis of pathological lung CT scans using CycleGAN for enhanced semi-supervised lung segmentation [0.0]
本稿では,画像-画像間翻訳におけるCycleGANの使用を強調した。
既存の真実と一致する偽の病理画像を生成することができる拡張方法を提供する。
本研究の予備的な結果は, 質的, 定量的に有意な改善を示すものである。
論文 参考訳(メタデータ) (2024-05-14T12:45:49Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Improved Focus on Hard Samples for Lung Nodule Detection [0.304585143845864]
本研究では,肺結節に対処する硬度サンプルやデータセットに注意を払って検出ネットワークを改良した。
LUNA16データセットを用いた実験により,提案手法の有効性を実証し,本手法が競争性能に到達したことを示す。
論文 参考訳(メタデータ) (2024-03-07T13:22:53Z) - Automatic segmentation of lung findings in CT and application to Long
COVID [38.69538648742266]
S-MEDSegは胸部CT画像における肺病変の正確な分画のための深層学習に基づくアプローチである。
S-MEDSegは、トレーニング済みのEfficientNetバックボーン、双方向機能ピラミッドネットワーク、モダンネットワークの進化を組み合わせたものだ。
論文 参考訳(メタデータ) (2023-10-13T23:42:43Z) - MESAHA-Net: Multi-Encoders based Self-Adaptive Hard Attention Network
with Maximum Intensity Projections for Lung Nodule Segmentation in CT Scan [6.266053305874546]
マルチエンコーダをベースとした自己適応型ハードアテンションネットワーク(MESAHA-Net)をCTスキャンの高精度な肺結節分割のための効率的なエンドツーエンドフレームワークとして提案する。
MESAHA-Netは、肺結節のスライス・バイ・スライス2Dセグメンテーションを反復的に行い、各スライス内の結節領域に着目して肺結節の3Dセグメンテーションを生成する。
LIDC-IDRIデータセットは,肺結節セグメンテーションのための最大公用データセットである。
論文 参考訳(メタデータ) (2023-04-04T07:05:15Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful Representations from X-Ray Images [49.24576562557866]
X線画像から意味のある表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
RGMIMは、トレーニングセットの5%や10%といった小さなデータボリュームのパフォーマンスを、他の方法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2022-11-01T07:41:03Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - Deep Residual 3D U-Net for Joint Segmentation and Texture Classification
of Nodules in Lung [91.3755431537592]
肺結節の分類法, そのテクスチャ分類, 肺CT像による後続の推奨について検討した。
提案手法は, 一般的なU-Netアーキテクチャファミリに基づくニューラルネットワークモデルと, 共同結節分割とそのテクスチャ分類タスクと, フォローアップレコメンデーションのためのアンサンブルベースモデルから構成される。
論文 参考訳(メタデータ) (2020-06-25T07:20:41Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z) - U-Det: A Modified U-Net architecture with bidirectional feature network
for lung nodule segmentation [0.0]
本稿では,資源効率のよいモデルアーキテクチャであるU-Detを提案する。
提案モデルは,1186個の肺結節からなるLUNA-16データセットを用いて,広範囲に訓練および評価を行った。
U-Detアーキテクチャは既存のU-Netモデルを82.82%のDice類似度係数(DSC)で上回り、人間の専門家に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T14:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。