論文の概要: GASNet: Weakly-supervised Framework for COVID-19 Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2010.09456v1
- Date: Mon, 19 Oct 2020 13:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:31:52.459704
- Title: GASNet: Weakly-supervised Framework for COVID-19 Lesion Segmentation
- Title(参考訳): GASNet: 新型コロナウイルス感染症対策の弱体化フレームワーク
- Authors: Zhanwei Xu, Yukun Cao, Cheng Jin, Guozhu Shao, Xiaoqing Liu, Jie Zhou,
Heshui Shi, Jianjiang Feng
- Abstract要約: 本稿では,GASNetと呼ばれるネットワークにジェネレーティブ・アドバイサル・トレーニング・プロセスを組み込むことにより,弱教師付き病変セグメンテーション・フレームワークを提案する。
GASNetは、セグナーによってCOVID-19 CTの病変領域を分割し、異常な外観をジェネレータによって生成された正常な外観に置き換えるように最適化されている。
3つの公開データベースの実験によると、1つのボクセルレベルのラベル付きサンプルを使用する場合、GASNetのパフォーマンスは数十のボクセルレベルのラベル付きサンプルでトレーニングされた完全に教師付きセグメンテーションアルゴリズムに匹敵する。
- 参考スコア(独自算出の注目度): 28.216627928380266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation of infected areas in chest CT volumes is of great significance
for further diagnosis and treatment of COVID-19 patients. Due to the complex
shapes and varied appearances of lesions, a large number of voxel-level labeled
samples are generally required to train a lesion segmentation network, which is
a main bottleneck for developing deep learning based medical image segmentation
algorithms. In this paper, we propose a weakly-supervised lesion segmentation
framework by embedding the Generative Adversarial training process into the
Segmentation Network, which is called GASNet. GASNet is optimized to segment
the lesion areas of a COVID-19 CT by the segmenter, and to replace the abnormal
appearance with a generated normal appearance by the generator, so that the
restored CT volumes are indistinguishable from healthy CT volumes by the
discriminator. GASNet is supervised by chest CT volumes of many healthy and
COVID-19 subjects without voxel-level annotations. Experiments on three public
databases show that when using as few as one voxel-level labeled sample, the
performance of GASNet is comparable to fully-supervised segmentation algorithms
trained on dozens of voxel-level labeled samples.
- Abstract(参考訳): 胸部CTボリュームにおける感染部位の分離は、COVID-19患者のさらなる診断と治療に非常に重要である。
複雑な形状と病変の多様な外観のため、多くのボクセルレベルラベル付きサンプルが、深層学習に基づく医用画像分割アルゴリズム開発の主要なボトルネックである病変分割ネットワークを訓練するために要求される。
本稿では,ganetと呼ばれる分節ネットワークに生成的逆行訓練プロセスを組み込むことにより,弱教師付き病変分節フレームワークを提案する。
GASNetは、セグメンタによりCOVID-19 CTの病変領域を分別し、異常な外観をジェネレータによって発生した正常な外観に置き換えるように最適化され、再生されたCTボリュームは、判別器によって健康なCTボリュームと区別できない。
GASNetは、多くの健康および新型コロナウイルス患者の胸部CTボリュームで、ボクセルレベルのアノテーションなしで管理されている。
3つの公開データベースでの実験では、1つのvoxelレベルラベル付きサンプルを使用する場合、gasnetのパフォーマンスは数十のvoxelレベルラベル付きサンプルでトレーニングされた完全な教師付きセグメンテーションアルゴリズムに匹敵する。
関連論文リスト
- Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Full-scale Deeply Supervised Attention Network for Segmenting COVID-19
Lesions [0.24366811507669117]
我々は,CT画像におけるコロナ感染領域の効率的なセグメンテーションのためのフルスケールDeeply Supervised Attention Network(FuDSA-Net)を紹介した。
モデルは、ネットワークの異なるレベルで取得されたマルチスカラー機能を含む、エンコーディングパスの全レベルからのアクティベーション応答を考察する。
マルチスカラー特性の全領域を新しいアテンション機構に組み込むことで、アクティベーション応答と有用な情報を含む位置の選択が優先される。
論文 参考訳(メタデータ) (2022-10-27T16:05:47Z) - BCS-Net: Boundary, Context and Semantic for Automatic COVID-19 Lung
Infection Segmentation from CT Images [83.82141604007899]
BCS-Netは、CT画像から自動的に新型コロナウイルスの肺感染症を分離するための新しいネットワークである。
BCS-Netはエンコーダ-デコーダアーキテクチャに従っており、多くの設計はデコーダのステージに焦点を当てている。
BCSRブロックでは、アテンション誘導グローバルコンテキスト(AGGC)モジュールがデコーダの最も価値のあるエンコーダ機能を学ぶように設計されている。
論文 参考訳(メタデータ) (2022-07-17T08:54:07Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - CHS-Net: A Deep learning approach for hierarchical segmentation of
COVID-19 infected CT images [0.6091702876917281]
新型重症急性呼吸器症候群(SARS-CoV-2)のパンデミックが世界中で広がっています。
CT(Computerd Tomography)、X線などの医療画像は、臓器の構造に関する優れた詳細を提示することにより、患者の診断に重要な役割を果たします。
ディープラーニング技術は、新型コロナウイルスなどの疾患やウイルスの迅速な診断を支援するために、そのようなスキャンを分析する強みを示しています。
論文 参考訳(メタデータ) (2020-12-13T15:02:05Z) - Classification and Region Analysis of COVID-19 Infection using Lung CT
Images and Deep Convolutional Neural Networks [0.8224695424591678]
本研究は、肺CT画像中のCOVID-19感染領域を記述するための2段階の深層畳み込みニューラルネットワーク(CNN)に基づくフレームワークを提案する。
第1段階では、2段階の離散ウェーブレット変換を用いて、COVID-19特異的CT画像の特徴を増強する。
これらの拡張CT画像は、提案したカスタムメイドの深部CoV-CTNetを用いて分類される。
第2段階では、新型コロナウイルス感染症領域の同定と解析のためのセグメンテーションモデルに、感染画像として分類されたCT画像を提供する。
論文 参考訳(メタデータ) (2020-09-16T02:28:46Z) - Label-Free Segmentation of COVID-19 Lesions in Lung CT [17.639558085838583]
ピクセルレベルの異常モデルを用いて,CTで新型コロナウイルスの病変を分類するためのラベルフリーアプローチを提案する。
我々のモデリングは、気管と血管の一部が、病変が属する高強度範囲にあり、強いパターンを示すという観察に着想を得たものである。
実験では,NormNetの有効性を3つの異なるデータセットで検証した。
論文 参考訳(メタデータ) (2020-09-08T12:38:34Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。