論文の概要: A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation
- arxiv url: http://arxiv.org/abs/2001.00339v3
- Date: Tue, 9 Mar 2021 12:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:29:41.369140
- Title: A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation
- Title(参考訳): A$3$DSegNet:未完成のセグメンテーション、アーティファクトリダクション、モダリティトランスフォーメーションのための解剖学的アウェアアーティファクトディコンタングルメントとセグメンテーションネットワーク
- Authors: Yuanyuan Lyu, Haofu Liao, Heqin Zhu, S. Kevin Zhou
- Abstract要約: CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
- 参考スコア(独自算出の注目度): 18.500206499468902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spinal surgery planning necessitates automatic segmentation of vertebrae in
cone-beam computed tomography (CBCT), an intraoperative imaging modality that
is widely used in intervention. However, CBCT images are of low-quality and
artifact-laden due to noise, poor tissue contrast, and the presence of metallic
objects, causing vertebra segmentation, even manually, a demanding task. In
contrast, there exists a wealth of artifact-free, high quality CT images with
vertebra annotations. This motivates us to build a CBCT vertebra segmentation
model using unpaired CT images with annotations. To overcome the domain and
artifact gaps between CBCT and CT, it is a must to address the three
heterogeneous tasks of vertebra segmentation, artifact reduction and modality
translation all together. To this, we propose a novel anatomy-aware artifact
disentanglement and segmentation network (A$^3$DSegNet) that intensively
leverages knowledge sharing of these three tasks to promote learning.
Specifically, it takes a random pair of CBCT and CT images as the input and
manipulates the synthesis and segmentation via different decoding combinations
from the disentangled latent layers. Then, by proposing various forms of
consistency among the synthesized images and among segmented vertebrae, the
learning is achieved without paired (i.e., anatomically identical) data.
Finally, we stack 2D slices together and build 3D networks on top to obtain
final 3D segmentation result. Extensive experiments on a large number of
clinical CBCT (21,364) and CT (17,089) images show that the proposed
A$^3$DSegNet performs significantly better than state-of-the-art competing
methods trained independently for each task and, remarkably, it achieves an
average Dice coefficient of 0.926 for unpaired 3D CBCT vertebra segmentation.
- Abstract(参考訳): 脊椎手術計画には椎体の自動分割が必要であり, 術中画像診断法であるコーンビームct (cbct) が広く用いられている。
しかし、cbct画像はノイズ、組織コントラストの低下、金属物の存在などにより品質が低く、人工物が不足しており、手作業で椎骨のセグメンテーションを引き起こしている。
対照的に、脊椎アノテーションを付加した人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した画像が有用である。
CBCTとCTの領域とアーティファクトのギャップを克服するためには, 椎骨分割, アーティファクトリダクション, モダリティトランスフォーメーションの3つの不均一な課題に対処する必要がある。
そこで本研究では,これら3つの課題の知識共有を積極的に活用し,学習を促進する新しい解剖学的アーティファクト・アンタグルメント・セグメンテーション・ネットワーク(a$^3$dsegnet)を提案する。
具体的には、cbctとct画像のランダム対を入力とし、不連続な潜在層から異なる復号の組み合わせを介して合成とセグメンテーションを操作する。
そして、合成された画像と分割された脊椎の間で様々な形式の整合性を提案することにより、ペア化された(解剖学的に同一)データなしで学習を行う。
最後に、2Dスライスを積み重ねて3Dネットワークを構築し、最終的な3Dセグメンテーション結果を得る。
多数の臨床CBCT (21,364) とCT (17,089) 画像において, 提案したA$^3$DSegNetは, 各タスクに対して独立に訓練された最先端の競合手法よりも有意に優れており, 顕著な結果として3次元CBCT椎体分節のDice係数は0.926である。
関連論文リスト
- Attention-based CT Scan Interpolation for Lesion Segmentation of
Colorectal Liver Metastases [2.680862925538592]
大腸癌 (CRLM) に共通する小肝病変は, 畳み込みニューラルネットワーク (CNN) セグメンテーションモデルでは困難である。
我々は,CTスキャンにおける連続3重スライスから中間スライスを生成する,教師なしアテンションベースモデルを提案する。
モデルの出力は元の入力スライスと一致し、2つの最先端3Dセグメンテーションパイプラインにおけるセグメンテーション性能を向上する。
論文 参考訳(メタデータ) (2023-08-30T10:21:57Z) - Denoising diffusion-based MRI to CT image translation enables automated
spinal segmentation [8.094450260464354]
本研究は,T1wとT2wのMR画像系列をCT/MRの合計263対のCT画像に変換することを含む。
椎骨登録1回あたりの2つのランドマークは、MRIからCTへの画像と画像の変換を可能にし、すべての未経験のアプローチより優れていた。
論文 参考訳(メタデータ) (2023-08-18T07:07:15Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - QU-net++: Image Quality Detection Framework for Segmentation of 3D
Medical Image Stacks [0.9594432031144714]
U-net++モデルを用いて3次元画像スタックから医用画像の品質を評価する2段階自動評価手法を提案する。
検出された画像は、セマンティックセグメンテーションのためにU-net++モデルをさらに微調整するために使用することができる。
論文 参考訳(メタデータ) (2021-10-27T05:28:02Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Three-dimensional Segmentation of the Scoliotic Spine from MRI using
Unsupervised Volume-based MR-CT Synthesis [3.6273410177512275]
本研究では,無教師付き完全3次元(3次元)クロスモダリティ合成法を提案する。
3D CycleGANモデルはMR領域とCT領域にまたがるボリューム・ツー・ボリューム変換のために訓練される。
結果として生じるセグメンテーションは、脊椎の3次元モデルを再構成するために使用される。
論文 参考訳(メタデータ) (2020-11-25T18:34:52Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。