論文の概要: Combining CNN and Hybrid Active Contours for Head and Neck Tumor
Segmentation in CT and PET images
- arxiv url: http://arxiv.org/abs/2012.14207v1
- Date: Mon, 28 Dec 2020 12:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 10:55:56.315247
- Title: Combining CNN and Hybrid Active Contours for Head and Neck Tumor
Segmentation in CT and PET images
- Title(参考訳): CTおよびPET画像における頭頸部腫瘍分節に対するCNNとHybrid Active Contourの併用
- Authors: Jun Ma, Xiaoping Yang
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(cnns)とハイブリッド・アクティブ輪郭を併用した頭頸部腫瘍の自動分割法を提案する。
MCCAI 2020 HECKTORでは,平均Dice similarity Coefficient, precision, recallが0.752, 0.838, 0.717で2位となった。
- 参考スコア(独自算出の注目度): 16.76087435628378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic segmentation of head and neck tumors plays an important role in
radiomics analysis. In this short paper, we propose an automatic segmentation
method for head and neck tumors from PET and CT images based on the combination
of convolutional neural networks (CNNs) and hybrid active contours.
Specifically, we first introduce a multi-channel 3D U-Net to segment the tumor
with the concatenated PET and CT images. Then, we estimate the segmentation
uncertainty by model ensembles and define a segmentation quality score to
select the cases with high uncertainties. Finally, we develop a hybrid active
contour model to refine the high uncertainty cases. Our method ranked second
place in the MICCAI 2020 HECKTOR challenge with average Dice Similarity
Coefficient, precision, and recall of 0.752, 0.838, and 0.717, respectively.
- Abstract(参考訳): 頭頸部腫瘍の自動切除は放射線学的解析において重要な役割を担っている。
本稿では,畳み込みニューラルネットワーク(CNN)とハイブリッド能動輪郭を組み合わせたPET画像とCT画像から頭頸部腫瘍の自動分離法を提案する。
具体的には,腫瘍をPET画像とCT画像で分割する多チャンネル3D U-Netを提案する。
次に,モデルアンサンブルによるセグメンテーションの不確かさを推定し,セグメンテーション品質スコアを定義し,不確実度の高いケースを選択する。
最後に,高不確かさを解消するためのハイブリッド型アクティブ輪郭モデルを開発した。
MCCAI 2020 HECKTORでは,平均Dice similarity Coefficient, precision, recallが0.752, 0.838, 0.717で2位となった。
関連論文リスト
- Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation [0.0]
U-Netベースのディープラーニング技術は、自動化された医用画像セグメンテーションのための有望なアプローチとして登場しつつある。
腎腫瘍の診断のためのCTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
論文 参考訳(メタデータ) (2024-10-20T19:02:41Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Self-calibrated convolution towards glioma segmentation [45.74830585715129]
我々は,nnU-Netネットワークの異なる部分における自己校正畳み込みを評価し,スキップ接続における自己校正加群が,拡張腫瘍と腫瘍コアセグメンテーションの精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-02-07T19:51:13Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - Weaving Attention U-net: A Novel Hybrid CNN and Attention-based Method
for Organs-at-risk Segmentation in Head and Neck CT Images [11.403827695550111]
我々は、畳み込みニューラルネットワーク(CNN)と自己認識機構を組み合わせた、新しいハイブリッドディープラーニングアプローチを開発した。
提案手法は10臓器対リスク(OAR)の基底真理によく似た輪郭を生成する。
新しいウィービング注意U-netは頭頸部CT画像のセグメンテーションに優れているか類似した性能を示した。
論文 参考訳(メタデータ) (2021-07-10T14:27:46Z) - Squeeze-and-Excitation Normalization for Automated Delineation of Head
and Neck Primary Tumors in Combined PET and CT Images [3.2694564664990753]
ポジトロン発光トモグラフィ/CT(PET/CT)画像を組み合わせることで、ヘッドアンドネック(H&N)一次腫瘍分割の自動化に貢献します。
残層を持つU-Netアーキテクチャを設計し,Squeeze-and-Excitation Normalizationを補足した。
本手法は,クロスバリデーション (DSC 0.745, 精度 0.760, リコール 0.789) と試験セット (DSC 0.759, 精度 0.833, リコール 0.740) で達成し, HECKTORチャレンジで優勝した。
論文 参考訳(メタデータ) (2021-02-20T21:06:59Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。