論文の概要: Squeeze-and-Excitation Normalization for Automated Delineation of Head
and Neck Primary Tumors in Combined PET and CT Images
- arxiv url: http://arxiv.org/abs/2102.10446v1
- Date: Sat, 20 Feb 2021 21:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 03:44:25.952810
- Title: Squeeze-and-Excitation Normalization for Automated Delineation of Head
and Neck Primary Tumors in Combined PET and CT Images
- Title(参考訳): pet画像とct画像の併用による頭頸部原発腫瘍の自動切除法の検討
- Authors: Andrei Iantsen, Dimitris Visvikis, Mathieu Hatt
- Abstract要約: ポジトロン発光トモグラフィ/CT(PET/CT)画像を組み合わせることで、ヘッドアンドネック(H&N)一次腫瘍分割の自動化に貢献します。
残層を持つU-Netアーキテクチャを設計し,Squeeze-and-Excitation Normalizationを補足した。
本手法は,クロスバリデーション (DSC 0.745, 精度 0.760, リコール 0.789) と試験セット (DSC 0.759, 精度 0.833, リコール 0.740) で達成し, HECKTORチャレンジで優勝した。
- 参考スコア(独自算出の注目度): 3.2694564664990753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Development of robust and accurate fully automated methods for medical image
segmentation is crucial in clinical practice and radiomics studies. In this
work, we contributed an automated approach for Head and Neck (H&N) primary
tumor segmentation in combined positron emission tomography / computed
tomography (PET/CT) images in the context of the MICCAI 2020 Head and Neck
Tumor segmentation challenge (HECKTOR). Our model was designed on the U-Net
architecture with residual layers and supplemented with Squeeze-and-Excitation
Normalization. The described method achieved competitive results in
cross-validation (DSC 0.745, precision 0.760, recall 0.789) performed on
different centers, as well as on the test set (DSC 0.759, precision 0.833,
recall 0.740) that allowed us to win first prize in the HECKTOR challenge among
21 participating teams. The full implementation based on PyTorch and the
trained models are available at https://github.com/iantsen/hecktor
- Abstract(参考訳): 医用画像分割のための堅牢で正確な完全自動化手法の開発は,臨床および放射線医学研究において重要である。
本研究では、MICCAI 2020 Head and Neck Tumor segmentation Challenge (HECKTOR) の文脈において、ポジトロン放射トモグラフィ/計算トモグラフィ(PET/CT)画像を組み合わせることで、ヘッドアンドネック(H&N)プライマリ腫瘍セグメンテーション(H&N)の自動アプローチに貢献した。
残層を持つU-Netアーキテクチャを設計し,Squeeze-and-Excitation Normalizationを補足した。
提案手法は,異なるセンターで実施したクロスバリデーション (dsc 0.745, precision 0.760, recall 0.789) とテストセット (dsc 0.759, precision 0.833, recall 0.740) において,21チーム中21チームがヘクターチャレンジで優勝した。
PyTorchとトレーニングされたモデルに基づく完全な実装はhttps://github.com/iantsen/hecktorで公開されている。
関連論文リスト
- Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are? [0.0]
我々は,H&N腫瘍を自動デライン化するための視覚変換器を用いた手法を開発した。
我々は、その結果をCNNベースのモデルと比較する。
選択した変換器ベースモデルにより,CNNベースモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-17T07:31:52Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Weaving Attention U-net: A Novel Hybrid CNN and Attention-based Method
for Organs-at-risk Segmentation in Head and Neck CT Images [11.403827695550111]
我々は、畳み込みニューラルネットワーク(CNN)と自己認識機構を組み合わせた、新しいハイブリッドディープラーニングアプローチを開発した。
提案手法は10臓器対リスク(OAR)の基底真理によく似た輪郭を生成する。
新しいウィービング注意U-netは頭頸部CT画像のセグメンテーションに優れているか類似した性能を示した。
論文 参考訳(メタデータ) (2021-07-10T14:27:46Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Combining CNN and Hybrid Active Contours for Head and Neck Tumor
Segmentation in CT and PET images [16.76087435628378]
本稿では,畳み込みニューラルネットワーク(cnns)とハイブリッド・アクティブ輪郭を併用した頭頸部腫瘍の自動分割法を提案する。
MCCAI 2020 HECKTORでは,平均Dice similarity Coefficient, precision, recallが0.752, 0.838, 0.717で2位となった。
論文 参考訳(メタデータ) (2020-12-28T12:12:14Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Multiple resolution residual network for automatic thoracic
organs-at-risk segmentation from CT [2.9023633922848586]
我々は,CT画像からのOAR分割のためのMRRN(Multiple resolution residual Network)の実装と評価を行った。
提案手法は,複数画像解像度で計算された特徴ストリームと残差接続による特徴レベルを同時に組み合わせる。
左肺, 心臓, 食道, 脊髄を分画する検査を35回行った肺がん患者206例の胸部CT検査を用いて, アプローチを訓練した。
論文 参考訳(メタデータ) (2020-05-27T22:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。