論文の概要: Combining CNN and Hybrid Active Contours for Head and Neck Tumor
Segmentation in CT and PET images
- arxiv url: http://arxiv.org/abs/2012.14207v1
- Date: Mon, 28 Dec 2020 12:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 10:55:56.315247
- Title: Combining CNN and Hybrid Active Contours for Head and Neck Tumor
Segmentation in CT and PET images
- Title(参考訳): CTおよびPET画像における頭頸部腫瘍分節に対するCNNとHybrid Active Contourの併用
- Authors: Jun Ma, Xiaoping Yang
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(cnns)とハイブリッド・アクティブ輪郭を併用した頭頸部腫瘍の自動分割法を提案する。
MCCAI 2020 HECKTORでは,平均Dice similarity Coefficient, precision, recallが0.752, 0.838, 0.717で2位となった。
- 参考スコア(独自算出の注目度): 16.76087435628378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic segmentation of head and neck tumors plays an important role in
radiomics analysis. In this short paper, we propose an automatic segmentation
method for head and neck tumors from PET and CT images based on the combination
of convolutional neural networks (CNNs) and hybrid active contours.
Specifically, we first introduce a multi-channel 3D U-Net to segment the tumor
with the concatenated PET and CT images. Then, we estimate the segmentation
uncertainty by model ensembles and define a segmentation quality score to
select the cases with high uncertainties. Finally, we develop a hybrid active
contour model to refine the high uncertainty cases. Our method ranked second
place in the MICCAI 2020 HECKTOR challenge with average Dice Similarity
Coefficient, precision, and recall of 0.752, 0.838, and 0.717, respectively.
- Abstract(参考訳): 頭頸部腫瘍の自動切除は放射線学的解析において重要な役割を担っている。
本稿では,畳み込みニューラルネットワーク(CNN)とハイブリッド能動輪郭を組み合わせたPET画像とCT画像から頭頸部腫瘍の自動分離法を提案する。
具体的には,腫瘍をPET画像とCT画像で分割する多チャンネル3D U-Netを提案する。
次に,モデルアンサンブルによるセグメンテーションの不確かさを推定し,セグメンテーション品質スコアを定義し,不確実度の高いケースを選択する。
最後に,高不確かさを解消するためのハイブリッド型アクティブ輪郭モデルを開発した。
MCCAI 2020 HECKTORでは,平均Dice similarity Coefficient, precision, recallが0.752, 0.838, 0.717で2位となった。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - SwinCross: Cross-modal Swin Transformer for Head-and-Neck Tumor
Segmentation in PET/CT Images [6.936329289469511]
クロスモーダルアテンション(CMA)モジュールを備えたクロスモーダルスウィントランス (SwinCross) は、複数の解像度でクロスモーダル特徴抽出を組み込んだ。
提案手法は, 最先端の変圧器を用いた手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-08T03:36:57Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - Weaving Attention U-net: A Novel Hybrid CNN and Attention-based Method
for Organs-at-risk Segmentation in Head and Neck CT Images [11.403827695550111]
我々は、畳み込みニューラルネットワーク(CNN)と自己認識機構を組み合わせた、新しいハイブリッドディープラーニングアプローチを開発した。
提案手法は10臓器対リスク(OAR)の基底真理によく似た輪郭を生成する。
新しいウィービング注意U-netは頭頸部CT画像のセグメンテーションに優れているか類似した性能を示した。
論文 参考訳(メタデータ) (2021-07-10T14:27:46Z) - Squeeze-and-Excitation Normalization for Automated Delineation of Head
and Neck Primary Tumors in Combined PET and CT Images [3.2694564664990753]
ポジトロン発光トモグラフィ/CT(PET/CT)画像を組み合わせることで、ヘッドアンドネック(H&N)一次腫瘍分割の自動化に貢献します。
残層を持つU-Netアーキテクチャを設計し,Squeeze-and-Excitation Normalizationを補足した。
本手法は,クロスバリデーション (DSC 0.745, 精度 0.760, リコール 0.789) と試験セット (DSC 0.759, 精度 0.833, リコール 0.740) で達成し, HECKTORチャレンジで優勝した。
論文 参考訳(メタデータ) (2021-02-20T21:06:59Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。