論文の概要、ライセンス

# (参考訳) 分割型畳み込みニューラルネットワークを用いた頭頸部ctによる臓器自動分節化 [全文訳有]

Automatic Segmentation of Organs-at-Risk from Head-and-Neck CT using Separable Convolutional Neural Network with Hard-Region-Weighted Loss ( http://arxiv.org/abs/2102.01897v1 )

ライセンス: CC0 1.0
Wenhui Lei, Haochen Mei, Zhengwentai Sun, Shan Ye, Ran Gu, Huan Wang, Rui Huang, Shichuan Zhang, Shaoting Zhang, Guotai Wang(参考訳) 鼻咽頭癌 (Nasopharyngeal Carcinoma, NPC) は, 北極, 中国, 東南アジア, 中東/北アフリカにおける頭頸部癌(HAN)の進行型である。 npc治療のための放射線治療の効果的な計画には不確かさ情報を有するct画像からの臓器・リスク(oar)の正確な分割が重要である。 コンボリューションニューラルネットワーク(CNN)がOARの自動セグメンテーションのために達成した最新のパフォーマンスにもかかわらず、既存の方法は治療計画のためのセグメンテーション結果の不確実性推定を提供しておらず、その精度はCTにおける軟部組織の低コントラスト、OARの高度に不均衡なサイズ、および大きなスライス間間隔を含むいくつかの要因によって制限されています。 これらの問題に対処するため,信頼性の高い不確実性推定を行うための新しいOARセグメンテーションフレームワークを提案する。 まず,SLF(Segmental Linear Function)を用いてCT画像の強度を変換し,複数の臓器を従来の方法よりも識別しやすくする手法を提案する。 第2に,大規模なスライス間スペーシングに対処するために,臨床用ハンctスキャンと異方性スペーシングを扱うために特別に設計された2.5dネットワーク(3d-sepnet)を導入する。 第3に,既存の硬度認識損失関数はクラスレベルの硬さに対処することが多いが,本提案した硬度ボクセル(ATH)に対する注意は,対応するクラスが容易であるにもかかわらず,いくつかの硬度領域を扱うのに適したボクセルレベルの硬さ戦略を用いている。 コードはhttps://github.com/H iLab-git/SepNetで入手できます。

Nasopharyngeal Carcinoma (NPC) is a leading form of Head-and-Neck (HAN) cancer in the Arctic, China, Southeast Asia, and the Middle East/North Africa. Accurate segmentation of Organs-at-Risk (OAR) from Computed Tomography (CT) images with uncertainty information is critical for effective planning of radiation therapy for NPC treatment. Despite the stateof-the-art performance achieved by Convolutional Neural Networks (CNNs) for automatic segmentation of OARs, existing methods do not provide uncertainty estimation of the segmentation results for treatment planning, and their accuracy is still limited by several factors, including the low contrast of soft tissues in CT, highly imbalanced sizes of OARs and large inter-slice spacing. To address these problems, we propose a novel framework for accurate OAR segmentation with reliable uncertainty estimation. First, we propose a Segmental Linear Function (SLF) to transform the intensity of CT images to make multiple organs more distinguishable than existing methods based on a simple window width/level that often gives a better visibility of one organ while hiding the others. Second, to deal with the large inter-slice spacing, we introduce a novel 2.5D network (named as 3D-SepNet) specially designed for dealing with clinic HAN CT scans with anisotropic spacing. Thirdly, existing hardness-aware loss function often deal with class-level hardness, but our proposed attention to hard voxels (ATH) uses a voxel-level hardness strategy, which is more suitable to dealing with some hard regions despite that its corresponding class may be easy. Our code is now available at https://github.com/H iLab-git/SepNet.
公開日: Wed, 3 Feb 2021 06:31:38 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Automatic Segmentation of Organs-at-Risk from Head-and-Neck CT using Separable 頭頸部CTから分離した臓器の自動分割 0.72
Convolutional Neural Network with Hard-Region-Weighted Loss ハードレジオン重み付き畳み込みニューラルネットワーク 0.65
Wenhui Leia, Haochen Meia, Zhengwentai Suna, Shan Yea, Ran Gua, Huan Wanga, Rui Huangb, Shichuan Zhangc, Wenhui Leia, Haochen Meia, Zhengwentai Suna, Shan Yea, Ran Gua, Huan Wanga, Rui Huangb, Shichuan Zhangc 0.81
Shaoting Zhanga, Guotai Wanga,∗ Shaoting Zhanga、Guotai Wanga、。 0.70
aSchool of Mechanical and Electrical Engineering, University of Electronic Science and Technology of China, Chengdu, China aSchool of Mechanical and Electric Engineering, University of Electronic Science and Technology of China, Chengdu, China 0.85
bSenseTime Research, Shenzhen, China bSenseTime Research、深セン、中国。 0.73
cDepartment of Radiation Oncology, Sichuan Cancer Hospital and Institute, University of Electronic Science and Technology of China, Chengdu, China c中国・成都市にある中国電子工学大学四川癌病院・研究所放射線腫瘍学研究室 0.68
1 2 0 2 b e F 3 1 2 0 2 b e F 3 0.85
] V I . ] V 私は。 0.82
s s e e [ 1 v 7 9 8 1 0 s s e [ 1 v 7 9 8 1 0 0.77
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Abstract Accurate segmentation of Organs-at-Risk (OAR) from Head and Neck (HAN) Computed Tomography (CT) images with uncertainty information is critical for effective planning of radiation therapy for Nasopharyngeal Carcinoma (NPC) treatment. 鼻咽頭癌(NPC)治療における放射線治療の効果的な計画には、頭部および頸部(HAN)CT画像からの臓器アトリスク(OAR)の抽象的正確な分割が不可欠です。 0.84
Despite the state-of-the-art performance achieved by Convolutional Neural Networks (CNNs) for the segmentation task, existing methods do not provide uncertainty estimation of the segmentation results for treatment planning, and their accuracy is still limited by the low contrast of soft tissues in CT, highly imbalanced sizes of OARs and large inter-slice spacing. セグメンテーションタスクにおける畳み込みニューラルネットワーク(CNN)の最先端性能にもかかわらず、既存の手法では治療計画のためのセグメンテーション結果の不確実性は評価されておらず、その精度はCTの軟組織の低コントラスト、OARの高不均衡サイズ、大きなスライス間隔によって制限されている。 0.77
To address these problems, we propose a novel framework for accurate OAR segmentation with reliable uncertainty estimation. これらの問題に対処するため,信頼性の高い不確実性推定を行うための新しいOARセグメンテーションフレームワークを提案する。 0.60
First, we propose a Segmental Linear Function (SLF) to transform the intensity of CT images to make multiple organs more distinguishable than existing simple window width/level-based methods. まず,ct画像の強度を変換し,既存の簡易な窓幅/レベルベース法よりも複数の臓器を識別可能にするセグメンテーション線形関数(slf)を提案する。 0.79
Second, we introduce a novel 2.5D network (named as 3D-SepNet) specially designed for dealing with clinic CT scans with anisotropic spacing. 第2に,臨床CTスキャンを異方性間隔で扱うための新しい2.5Dネットワーク(3D-SepNet)を提案する。 0.76
Thirdly, we propose a novel hardness-aware loss function that pays attention to hard voxels for accurate segmentation. 第3に, 高精度セグメンテーションのために, ハードボクセルに注意を向ける新しいハードネス認識損失関数を提案する。 0.61
We also use an ensemble of models trained with different loss functions and intensity transforms to obtain robust results, which also leads to segmentation uncertainty without extra efforts. また、異なる損失関数と強度変換を訓練したモデルのアンサンブルを用いてロバストな結果を得るとともに、余分な努力なしにセグメンテーションの不確実性をもたらす。 0.64
Our method won the third place of the HAN OAR segmentation task in StructSeg 2019 challenge and it achieved weighted average Dice of 80.52% and 95% Hausdorff Distance of 3.043 mm. 提案手法は,han oar segmentation task の structseg 2019 challenge で3位を勝ち取り,80.52% と 95% のハウスドルフ距離 3.043 mm の重み付き平均ダイスを達成した。 0.75
Experimental results show that 1) our SLF for intensity transform helps to improve the accuracy of OAR segmentation from CT images; 2) With only 1/3 parameters of 3D UNet, our 3D-SepNet obtains better segmentation results for most OARs; 3) The proposed hard voxel weighting strategy used for training effectively improves the segmentation accuracy; 4) The segmentation uncertainty obtained by our method has a high correlation to mis-segmentations, which has a potential to assist more informed decisions in clinical practice. 1) 強度変換のためのslfは, ct画像からのオアセグメンテーションの精度を向上させるのに役立つこと, 2) 3d unetのパラメータが1/3であること, 3d-sepnetはオアセグメンテーションの精度を向上させること, 3) トレーニングに使用するハードボクセル重み付け戦略はセグメンテーション精度を効果的に向上すること, 4) 方法によって得られたセグメンテーションの不確かさは, 臨床においてよりインフォームな判断を支援する可能性があること,の2。 0.71
Our code is available at https://github.com/H iLab-git/SepNet. コードはhttps://github.com/H iLab-git/SepNetで入手できます。 0.47
Keywords: Medical image segmentation, Intensity transform, Convolutional Neural Network, Uncertainty キーワード:医療画像分割、強度変換、畳み込みニューラルネットワーク、不確実性 0.76
1. Introduction Nasopharyngeal carcinoma (NPC) is a tumor arising from the epithelial cells that cover the surface and line the nasopharynx [1]. 1. はじめに 鼻咽頭癌 (Nasopharyngeal carcinoma, NPC) は、上皮細胞から発生し、鼻咽頭[1]の表面を覆う腫瘍である。 0.70
It is one of leading form of cancer in the Arctic, China, Southeast Asia, and the Middle East/North Africa [2]. それは北極、中国、東南アジアおよび中東/北アフリカの癌の一流の形態の1つです[2]。 0.65
Radiation therapy is the most common treatment choice for NPC because it is mostly radio-sensitive [3]. 放射線治療は、主に放射線感受性[3]であるため、npcの最も一般的な治療選択である。
訳抜け防止モード: 放射線治療はNPCにとって最も一般的な治療法である 主に無線の感度が高い[3].
0.79
Radiation planning sets up the radiation dose distribution for tumor and ordinary organs, which is vital for the treatment. 放射線計画は、治療に不可欠な腫瘍および通常の臓器の放射線線量分布を設定します。 0.84
Oncologists would design radiotherapy plans to make sure the cancer cells receive enough radiation and prevent the damage of normal cells in Organs-atRisk (OARs), such as the optical nerves and chiasma that are important for the vision of patients. 腫瘍学者は、がん細胞が十分な放射線を受け取り、患者の視覚に重要な光神経やキアスマなどの臓器細胞(oar)の正常な細胞の損傷を防ぐための放射線治療計画を設計する。 0.80
Medical images play a vital role in preoperative decision making, as they can assist radiologists to determine the OARs boundaries. 医用画像は手術前の意思決定に重要な役割を果たし、放射線医がOARの境界を決定するのを助けることができます。 0.63
Magnetic Resonance Imaging (MRI) and Computed Tomography (CT) are widely used non-invasive imaging MRI(MRI)とCT(CT)は非侵襲的画像として広く用いられている 0.80
∗Corresponding author: Guotai Wang. 対応する著者:Guotai Wang。 0.72
Email address: guotai.wang@uestc.ed u.cn (Guotai Wang) アドレス: guotai.wang@uestc.ed u.cn (Guotai Wang) 0.76
Preprint submitted to NeuroComputing NeuroComputingへのプレプリント 0.84
methods for HAN. Delineating the boundaries of tens of OARs from HAN CT scans is one crucial step in radiotherapy treatment planning, and manual delineation is tedious and time consuming and likely to have high inter- and intra-observer variations. HANのメソッド。 HANCTスキャンから数十個のOARの境界線を抽出することは放射線治療計画において重要なステップであり、手動の除線は退屈で時間を要するため、サーバ間およびサーバ間のばらつきが高くなる可能性がある。
訳抜け防止モード: HANのメソッド。 HAN CTスキャンによる数十個のOARの境界の決定 放射線治療計画における重要な一歩であり 手動の記述は退屈で時間がかかり、観察者間の変動が高くなる可能性があります。
0.67
Automated segmentation of OARs can save radiologists time and has a potential to provide an accurate and reliable solution [4]. oarの自動分割は、放射線科医の時間を節約し、正確で信頼性の高いソリューションを提供する可能性がある [4]。 0.62
However, the automatic segmentation of HAN OARs from CT images is still challenging because of several reasons. しかし,CT画像からのHAN OARの自動分割は,いくつかの理由から依然として困難である。 0.67
First, there is a severe imbalance between sizes of large and small OARs. まず、大型と小型のOARのサイズには厳しい不均衡があります。 0.73
As shown in Fig. 1, the smallest organs such as the lens are only a few voxels wide, while the parotid gland is over 250 times larger than the lens, making the automatic segmentation algorithm easily biased towards the large organs. 図に示すように。 1、レンズのような最小の臓器はわずか数ボルト幅ですが、耳下腺はレンズの250倍以上であり、自動セグメンテーションアルゴリズムは大きな臓器に向かって容易にバイアスされます。 0.72
Nowadays, existing methods [4, 5, 6] mainly deal with the imbalance problem by weighting small OARs in the loss function for training, which is a class-level weighting and ignores hard voxels in easy or large OARs. 現在,既存の方法[4,5,6]は,クラスレベルの重み付けであり,簡単な,大きなオールでは硬いボクセルを無視する訓練用ロス関数に小さなオールを重み付けて,不均衡問題に主に対処している。 0.75
Second, due to the mechanism of CT imaging, soft tissues including OARs have a low contrast, such as the brain stem depicted in Fig. 第二に、CTイメージングのメカニズムのために、OARを含む軟部組織は、図に描かれている脳幹のような低いコントラストを有する。 0.72
1. The low contrast results in some uncertainty and challenges for accurate classification of voxels 1. 低コントラストはボクセルの正確な分類に不確実性と挑戦をもたらす 0.83
February 4, 2021 2021年2月4日 0.72
英語(論文から抽出)日本語訳スコア
Figure 1: An example of HAN CT images in three orthogonal views. 図1:3つの直交ビューにおけるHAN CT画像の例。 0.83
The OARs have imbalanced sizes with a low contrast with the surrounding tissues. OARは、周囲の組織と低いコントラストで不均衡なサイズである。 0.70
Note the large inter-slice spacing highlighted by red arrows and small organs occupying only few slices (e.g. 赤い矢印と小さなオルガンで強調された大きなスライス間間隔に注意してください(例)。 0.70
), the optical nerves and the lens highlighted by yellow arrows. )、黄色い矢印によって強調される光学神経およびレンズ。 0.75
around the boundary of OARs. OARの境界の周り。 0.65
Most existing works [5, 6, 7] do not deal with this problem well as they use a single intensity window/level for intensity transform, where a naive linear function between a lower threshold and an upper threshold is used. 既存の作業 [5, 6, 7] は、下閾値と上しきい値の間の素直な線形関数を使用するため、強度変換に単一の強度ウィンドウ/レベルを使用するため、この問題に対処しない。 0.79
Such a simple intensity transform cannot provide good visibility of multiple organs at the same time, which limits the accuracy of multi-organ segmentation. このような単純な強度変換は、複数の臓器の可視性を同時に提供できないため、多臓器セグメンテーションの精度が制限される。 0.68
Thirdly, HAN CT images are usually acquired with high in-plane resolution while low through-plane resolution, resulting in the smaller slice number of tiny OARs, such as the optical nerves highlighted by yellow arrows in Fig. 第三に、HAN CT画像は通常、高平面解像度と低スループレーン解像度で取得され、図中の黄色い矢印によって強調された光学神経のような小さなOARのスライス数が小さくなります。 0.67
1. Therefore, using standard 3D convolutions to treat x, y and z dimensions equally [4, 5, 6, 7] may overlook the anisotropic spatial resolution and limit the accuracy of segmentation of these small organs. 1. したがって、標準的な3D畳み込みを使用してx, y, z次元を等しく扱う[4, 5, 6, 6, 7]は異方性空間分解能を見落とし、これらの小器官の分節の精度を制限することができる。 0.77
In real clinical applications, the uncertainty of predictions is important in OARs segmentation. 実際の臨床応用では、OARsセグメンテーションにおいて予測の不確実性が重要である。 0.63
For radiotherapy planning, radiologists care about not only how accurate the segmentation results are, but also the extent to which the model is confident about its predictions. 放射線治療計画では、放射線学者はセグメント化結果の正確性だけでなく、モデルがその予測について自信を持っている程度も気にします。 0.61
If the uncertainty is too high, then doctors need to focus on this part of area and may give refinements [8]. 不確実性が高すぎる場合、医師は領域のこの部分に焦点を合わせる必要があり、洗練を与える可能性があります[8]。 0.62
In our case, the low contrast between OARs and their surroundings leads the voxels around boundaries to be segmented with less confidence [9]. 我々の場合、OARとその周辺との低コントラストは、境界周りのボクセルをより少ない信頼性でセグメント化します [9]。 0.74
The uncertainty information of these voxels can indicate regions that have potentially been mis-segmented, and could be used to guide human to refine the prediction results [10, 11]. これらのボクセルの不確実性情報は、誤ったセグメンテーションの可能性がある領域を示し、予測結果(10,11]を人間に改善させるのに使用できる。 0.58
However, to the best of our knowledge, there have been no existing works exploring the uncertainty estimation in HAN OARs predictions and its relationship with missegmentation. しかし、私たちの知る限りでは、HAN OARs予測における不確実性推定とその誤認識との関係を探求する既存の研究は行われていません。 0.62
Though there have been some similar existing works on some components of the proposed method, our pipeline is elaborated for uncertainty-aware multi-organ segmentation from HAN CT images by considering the challenges associated with this specific task. 提案手法のいくつかのコンポーネントには類似した作業がいくつか存在するが,本手法の課題を考慮し,han ct画像からの不確実性を考慮したマルチオーガンセグメンテーションのためのパイプラインを精巧に検討した。 0.63
In addition, several modules in our method are also different from their existing counterparts. さらに,本手法では既存のモジュールと異なるモジュールがいくつか存在する。 0.74
First, to deal with low contrast of CT images, our Segmental Linear Functions (SLFs) transform the intensity of CT images to make multiple organs more distinguishable than existing methods based on a simple window width/level that often gives a better visibility of one organ while hiding the others. 第一に、対処する CT画像の低コントラスト、私たちのセグメント線形関数(SLF)は、CT画像の強度を変形させ、他の臓器を隠しながら1つの臓器をよりよく可視化する単純なウィンドウ幅/レベルに基づいて、既存の方法よりも複数の臓器をより区別できるようにします。 0.73
Second, existing general 2D and 3D segmentation networks can hardly deal with images with anisotropic spacing well. 第二に、既存の2Dおよび3Dセグメンテーションネットワークは、異方性間隔の画像をうまく扱えない。 0.67
Our SepNet is a novel 2.5D network specially designed for dealing with clinic HAN CT scans with anisotropic spacing. sepnetは臨床用hanctスキャンと異方性スペーシングを扱うために特別に設計された新しい2.5dネットワークである。 0.60
Thirdly, existing hardness-aware loss functions often deal with class-level hardness, but our proposed attention to hard voxels (ATH) uses a voxel-level hardness strategy, which is more suitable to dealing with some hard regions despite that its corresponding class may be easy. 第3に,既存の硬度認識損失関数はクラスレベルの硬さに対処することが多いが,本提案の硬度ボクセル(ATH)に対する注意は,対応するクラスが容易であるにもかかわらず,いくつかの硬度領域を扱うのに適したボクセルレベルの硬さ戦略を用いている。 0.64
Last but not least, uncertainty information is important for more informed treatment planning of NPC, but existing HAN CT segmentation methods do not provide the uncertainty information. 最後に、NPCのより詳細な治療計画には不確実性情報は重要ですが、既存のHAN CTセグメンテーション方法は不確実性情報を提供していません。 0.66
We use an ensemble of models trained with different loss functions and intensity transforms to obtain robust results. 我々はロバストな結果を得るために、異なる損失関数と強度変換で訓練されたモデルのアンサンブルを用いる。 0.65
Therefore, our proposed method is a novel pipeline for accurate segmentation of HAN OARs by better considering the image’s comprehensive properties including the low-contrast, anisotropic resolution, segmentation hardness, and it provides segmentation uncertainty for more informed treatment decision making. そこで本提案手法は, 画像の低コントラスト, 異方性分解能, セグメンテーション硬度などの包括的特性をよく考慮して, HAN OARの正確なセグメンテーションを行うパイプラインであり, より深い処理決定のためのセグメンテーションの不確実性を提供する。 0.77
Our proposed method won the 3rd place in 17 teams in the HAN OAR segmentation task of StructSeg 20191 challenge . 提案手法は,StructSeg 20191のHAN OARセグメンテーションタスクにおいて,17チームで3位となった。 0.72
2. Related Works 2.1. 2. 関連作品 2.1. 0.76
Traditional Methods for OAR Segmentation OARセグメンテーションの従来の方法 0.83
In earlier studies, traditional segmentation methods such as atlas-[12], RF-[13], contour-[14], region-[15], SVM-based [16] methods, have achieved significant benefits compared with traditional manual segmentation. これまでの研究では、atlas-[12], RF-[13], contour-[14], region-[15], SVM-based [16] といった従来のセグメンテーション手法は、従来の手作業のセグメンテーションに比べて大きなメリットを享受している。 0.86
Zhou et al. [17] proposed a 周ら。 提案された[17] 0.60
1https://structseg20 19.grand-challenge.o rg/Home/ 1https://structseg20 19.grand-challenge.o rg/Home/ 0.28
2 Brain StemPituitaryParotid Gland LeftLeft Temporomandibular JointRight Temporomandibular JointInner Ear RightMiddle Ear LeftOptic ChiasmaParotid Gland RightInner Ear LeftMiddle Ear RightBrain StemOptic ChiasmaEye LeftOptic Nerve RightOptic Nerve LeftEye RightLen LeftLen RightParotid Gland LeftTemporal Lobes Left Parotid Gland RightTemporal Lobes RightSpinal CordGround Truth(a)Axial View(b)Coronal View(c)Sagittal View 2 Brain StemPituitaryParotid Gland left Left Temporomandibular Joint Right Temporomandibular JointInner Ear RightMiddle Ear LeftOptic ChiasmaParotid Gland RightInner Ear LeftMiddle Ear RightBrain StemOptic ChiasmaEyeleftOptic Nerve RightOptic Nerve LeftEye RightLen RightParotid Gland leftTemporal Lobes left Parotid Gland RightTemporal Lobes RightSpinal CordGround Truth(a)Axial View(b)Coronal View(c)Sagittal View(c)Coronal View(b) 0.90
英語(論文から抽出)日本語訳スコア
SVM-based method to segment the cancer area from MRI. MRIから癌領域を分割するSVMベースの方法。 0.85
By drawing a hyperplane via kernel mapping, they are allowed to perform the task automatically without prior knowledge. カーネルマッピングを通じてハイパープレーンを描画することで、事前の知識なしにタスクを自動的に実行することができる。 0.64
Fitton et al. Fitton et al。 0.81
[18] introduced a contour-based segmentation method, requiring the doctor to delineate a rough contour firstly. [18]は輪郭式セグメンテーション法を導入し、医師にまず粗い輪郭の線引きを迫った。 0.63
With underlying image characteristics, their “snake” algorithm will adjust the rough contour to achieve more accurate result. 基本的な画像特性により、その「スネーク」アルゴリズムは、より正確な結果を得るために荒い輪郭を調整します。 0.60
Applying region-grow algorithm, Lee et al. 地域成長アルゴリズムを適用して、Lee et al。 0.66
[19] proposed a method requiring the user to select an initial seed within the tumor first, and then the seed grows to segment NPC lesions in MRI based on information obtained from contrast enhancement ratio. 19] 腫瘍内の初期シードをまず選択し, 造影率から得られた情報に基づいてmriでnpc病変を分節するように種子を成長させる方法を提案した。 0.76
However, these methods are mainly based on low-level features and time consuming. しかし、これらの手法は主に低レベルの特徴と時間消費に基づいている。 0.61
2.2. Deep Learning for OAR Segmentation 2.2. OARセグメンテーションのためのディープラーニング 0.63
After dramatic increase in popularity of deep learning methods in various computer vision tasks. 様々なコンピュータビジョンタスクにおけるディープラーニングメソッドの人気が劇的に増加した後。 0.65
Ibragimov and Xing [20] firstly proposed a CNN method at the end of 2016 to segment organs at HAN. IbragimovとXing [20]は、2016年末に初めて、HANのセグメント臓器にCNN方法を提案した。 0.72
They implemented a convolution neural network to extract features such as corners, end-points, and edges which contribute to classification and achieved higher accuracy than traditional methods. 彼らは畳み込みニューラルネットワークを実装し、コーナー、エンドポイント、エッジなどの特徴を抽出し、分類に寄与し、従来の方法よりも高い精度を達成した。 0.56
However, it requires further operations like Markov Random Fields algorithm to smooth the segmentation area and is patch-based, which would be time consuming for inference. しかし、セグメンテーション領域を滑らかにするためにMarkov Random Fieldsアルゴリズムのようなさらなる操作が必要であり、これは推測に時間を要するパッチベースである。 0.69
With the development of CNNs, a new architecture called Fully Convolutional Neural Network (FCN) [21] obtained large performance improvement for segmentation which also encouraged the emergence of U-Net [22]. CNNの開発に伴い、FCN(Fully Convolutional Neural Network)[21]と呼ばれる新しいアーキテクチャがセグメンテーションの大幅な性能向上を実現し、U-Net [22]の出現を促した。 0.76
Men et al. [23] used deep dilated CNNs for segmentation of OARs, where the network has a larger receptive field. 男性など。 23]は、ネットワークがより大きな受容領域を有するOARのセグメンテーションに深い拡張CNNを使用した。 0.61
Other researchers [24, 25] presented a fully convolution network-based model with auxiliary paths strategy which allows the model to learn discriminative features to obtain a higher segmentation performance. 他の研究者 [24, 25] は、識別的特徴を学習し、より高いセグメンテーション性能が得られるような補助経路戦略を備えた完全な畳み込みネットワークベースのモデルを提示した。 0.70
To deal with the imbalance problem, Liang et al. 不均衡の問題に対処するために、Liang et al。 0.73
[26] used one CNN for OAR detection and then another CNN for fine segmentation. 26]は1つのCNNをOAR検出に、もう1つのCNNを細かいセグメンテーションに使用しました。 0.57
Based on 3D-UNet [27], Gao et al. 3D-UNet [27] に基づくGaoら。 0.71
[5] proposed FocusNet by adding additional sub-networks for better segmentation of small organs. 5]小さな臓器のセグメンテーションを改善するためのサブネットワークを追加することでFocusNetを提案する。 0.67
Loss functions also play an important role in the segmentation task. 損失関数はセグメンテーションタスクにおいて重要な役割を果たす。 0.79
Liang et al. Liang et al。 0.79
[26] improved their loss function with weighted focal loss that performed well in the MICCAI 15 dataset [28]. [26]MICCAI15データセット[28]で良好に機能した重み付き焦点損失により損失関数が改善した。 0.81
Since the traditional Dice loss [29] is unfavorable to small structures as a few voxels of misclassification can lead to a large decrease of the Dice score, and this sensitivity is irrelevant to the relative sizes among structures. 従来のダイス損失[29]は小さな構造物には好ましくないため、いくつかの誤分類のボクセルによってダイススコアが大幅に減少する可能性があり、この感度は構造物間の相対的なサイズとは無関係である。 0.69
Therefore, balancing by label frequencies is suboptimal for Dice loss. したがって、ラベル周波数によるバランスはダイス損失に最適です。 0.63
Exponential Logarithmic loss [6], combining Focal loss [30] with Dice loss, eased this issue without much adjustments of the network. 焦点損失[30]とダイス損失を組み合わせた指数対数損失[6]は、ネットワークの多くの調整なしにこの問題を緩和した。 0.80
However, it will reduce the accuracy of hard voxels in large or other easy regions. しかし、大型または他の容易な地域での硬質ボクセルの精度は低下する。 0.67
2.3. Networks for Anisotropic Spacing 2.3. 異方性スペーシングのためのネットワーク 0.66
To deal with the anisotropic spacing in 3D image scans, previous networks can be divided into three major categories: First, directly applying 2D networks slice by slice to get the 3D画像スキャンの異方性間隔に対処するために、以前のネットワークは3つの主要なカテゴリに分けることができます。
訳抜け防止モード: 3次元画像スキャンにおける異方性間隔に対処する。 以前のネットワークは3つの主要なカテゴリに分けられる。 直接2Dネットワークをスライスして取得する
0.81
final results [31], which is agnostic to large inter-slice spacing. 最終的な結果[31]は、大きなスライス間隔に依存しない。 0.68
However, due to the internal structural constraints, the 2D networks can hardly capture 3D information. しかし、内部構造上の制約のため、2Dネットワークは3D情報をほとんど取得できない。 0.71
Second, resampling the original images into the same spacing along three dimensions [32, 33, 34] and processing them with standard 3D convolutions, which could merge the information among three dimensions effectively. 次に、元の画像を3次元 [32, 33, 34]に沿って同じ間隔にサンプリングし、標準的な3次元畳み込みで処理することで、3次元間の情報を効果的にマージすることができる。 0.65
But it will generate artifacts in interpolated slices and obtain reduced segmentation accuracy. しかし、補間されたスライスでアーティファクトを生成し、セグメンテーション精度を低下させる。 0.55
Thirdly, applying 2.5D network [35, 36], which firstly use 2D convolutions separately in three orthogonal views and fuse these multiview information together in final stage, so that 3D contextual features can be used. 第3に,2次元畳み込みを3つの直交ビューで別々に使用する2.5次元ネットワーク [35, 36] を適用して,これらマルチビュー情報を最終段階で融合することにより,3次元コンテキスト機能を実現する。 0.73
However, previous 2.5D networks mainly treat each directions equally thus ignore the anisotropic spacing and organ scales among three dimensions. しかし、従来の2.5Dネットワークは主に各方向を等しく扱うため、3次元の異方性間隔や臓器スケールを無視する。 0.65
2.4. Segmentation Uncertainty 2.4. セグメンテーションの不確かさ 0.62
Despite the impressive performance of current methods has achieved, measuring how reliable the predictions are is also crucial to indicate potential mis-segmented regions or guide user interactions for refinement [37, 38, 11]. 現在の方法の印象的なパフォーマンスは達成されているものの、予測の信頼性を測定することは、潜在的な誤ったセグメンテーション領域を示したり、改良のためのユーザインタラクションをガイドするためにも重要です [37, 38, 11]。
訳抜け防止モード: 現在の方法の印象的な性能にもかかわらず、 予測の信頼性を計測し また、潜在的なmis - segmented region や guide user interaction forfine [37, 38, 11] を示すためにも重要です。
0.73
There are two major types of predictive uncertainties for deep CNNs [39]: aleatoric uncertainty and epistemic uncertainty. 深層cnnの予測的不確実性には2つのタイプがある [39]: aleatoric uncertainty と epistemic uncertainty である。 0.82
Aleatoric uncertainty depends on noise or randomness in the input testing image, while epistemic uncertainty, also known as model uncertainty, can be explained away given enough training data. aleatoric uncertaintyは入力テスト画像のノイズやランダム性に依存するが、モデルの不確かさとしても知られる認識論的不確実性は十分なトレーニングデータから遠ざかることができる。 0.71
A lot of works have investigated uncertainty estimation for deep neural networks [39, 40, 41] and they mainly focused on high-level image classification or regression tasks. 多くの研究がディープニューラルネットワーク[39, 40, 41]の不確実性推定を調査しており、主に高レベルの画像分類や回帰タスクに焦点を当てている。
訳抜け防止モード: 深層ニューラルネットワーク [39, 40, 41] における不確実性推定に関する研究 主にハイレベルなイメージ分類や回帰タスクに重点を置いています。
0.80
Some recent works [42, 43] investigated test-time dropout-based (epistemic) uncertainty for segmentation. 最近の研究 [42, 43] では、セグメンテーションに対するテストタイムドロップアウトベースの不確実性が研究されている。 0.55
Wang et al. [44] and Nair et al. 王等。 44] と nair et al。 0.58
[43] extensively investigate different kinds of uncertainties for CNN-based medical image segmentation, including not only epistemic but also aleatoric uncertainties. 43]は、CNNベースの医療画像セグメンテーションのためのさまざまな種類の不確実性を広く調査している。 0.48
Even though uncertainty estimation is of great interest in HAN OARs segmentation, to the best of our knowledge, exiting works have not investigated this problem. HAN OARのセグメンテーションには不確実性評価が大きな関心を持っているが、我々の知る限り、出口工事はこの問題を調査していない。 0.55
3. Methods Our proposed framework for HAN OARs segmentation is shown in Fig. 3. 方法 提案するhan oarsセグメンテーションの枠組みを図に示す。 0.73
2. It consists of four main components. 2. 主に4つの要素からなる。 0.80
First, we propose to use Segmental Linear Functions (SLF) to obtain multiple intensity-transforme d copies of an input image to get better contrasts of different OARs. まず、SLF(Segmental Linear Functions)を使用して入力画像の複数の強度変換コピーを取得し、異なるOARのコントラストを改善することを提案する。 0.74
Second, for each copy of the intensity-transforme d image, we employ a novel network 3D-SepNet combining intra-slice and inter-slice convolutions to deal with the large inter-slice spacing. 第2に、強度変換画像のコピー毎に、スライス内とスライス間を結合した新たなネットワーク3d-sepnetを用いて、スライス間間隔の大規模な処理を行う。 0.57
Thirdly, to train our 3D-SepNet we propose a novel hard voxel weighting strategy that pays more attention to small organs and hard voxels in large/easy organs, and it can be combined with existing loss functions. 第3に,我々は3d-sepnetを訓練するために,小型の臓器や硬いボクセルに注意を払う新しい硬いボクセル重み付け戦略を提案し,既存の損失機能と組み合わせることができる。 0.74
Finally, we ensemble several models trained with different SLFs and loss functions by a weighted fusion to get final segmentation results, which simultaneously obtains uncertainty estimation of the segmentation, as show in Fig. 最後に、重み付き融合によって異なるSLFと損失関数で訓練されたいくつかのモデルをアンサンブルして最終的なセグメンテーション結果を取得し、図に示すようにセグメンテーションの不確実性推定を同時に取得します。 0.63
2. 3 2. 3 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Overview of our proposed framework for accurate OARs segmentation. 図2: 正確なoarsセグメンテーションのための提案フレームワークの概要。 0.75
We first use different Segmental Linear Functions (SLFs) to transform the intensity of an input image respectively, which obtains good visibility of different OARs. まず、異なるセグメント線形関数(SLF)を使用して入力画像の強度をそれぞれ変換し、異なるOARの良好な可視性を得ます。 0.79
Then a novel network 3D-SepNet that leverages intra-slice and inter-slice convolutions is proposed to segment OARs from images with large inter-slice spacing, and we propose a novel hardness weighting strategy for training. 次に,スライス内およびスライス間畳み込みを利用した新しいネットワーク3d-sepnetを提案し,スライス間間隔が大きい画像からオールを分割し,トレーニングのための新しいハードネス重み付け戦略を提案する。 0.63
Finally, an ensemble of networks related to different SLFs and loss functions obtains the final segmentation and uncertainty estimation simultaneously. 最後に、異なるslfおよび損失関数に関連するネットワークのアンサンブルが最終セグメンテーションと不確実性推定を同時に取得する。 0.77
Figure 3: Different intensity transform functions for CT image preprocessing. 図3:CT画像前処理のための異なる強度変換機能。 0.81
Standard window width/level-based intensity transforms use NLFs shown in (a), which employs a single linear function between the lower and the upper thresholds. 標準窓幅/レベルベース強度変換は(a)に示すNLFを用いており、これは下限と上限の間の1つの線形関数を用いる。 0.69
Our proposed SLFs in (b) transform the HU values to K linear sections to obtain better visibility of multiple OARs. 提案した (b) の SLF は、複数の OAR の可視性を向上させるために HU 値を K 線型セクションに変換します。 0.69
3.1. Intensity Transform with Segmental Linear Function 3.1. セグメント線形関数を用いた強度変換 0.73
HU values of soft issues such as the brain stem, parotid and temporal lobes are very close, and largely different from those of bones in CT images. 脳幹、耳下腺、側頭葉などの軟部問題のHU値は、非常に近く、CT画像の骨とは大きく異なります。 0.64
Previous studies [4, 7, 6] used simple window width/level-based intensity transform for preprocessing, i.e., a lower threshold and a upper threshold with a linear function between them, which is shown in Fig. 以前の研究[4, 7, 6]は、前処理のために単純なウィンドウ幅/レベルベースの強度変換を使用しました。
訳抜け防止モード: 前回の研究 [4, 7, 6 ] は、前処理に単純なウィンドウ幅/レベル-ベースのインテンシティ変換を用いた。 すなわち、その間に線形関数を持つ下閾値と上閾値である。 図に示します
0.76
3(a) and referred to as Naive Linear Functions (NLFs) in this paper. 3(a)であり,本論文ではナイーブ線型関数 (nlfs) と呼ぶ。 0.73
Processing CT images with an NLF is sub-optimal as it cannot obtain good visibility for soft tissues and bones at the same time, which may limit the segmentation accuracy. NLFによるCT画像の処理は、軟部組織と骨の視認性を同時に達成できないため、サブ最適であり、セグメンテーション精度が制限される可能性がある。 0.76
To address this issue and inspired by the fact that radiologists would use different window widths/levels to better differentiate OARs with diverse HU values, we propose to use Segmental Linear Functions (SLFs) to transform the CT images. この問題に対処するために, 放射線技師が異なる窓幅/レベルを用いて, 多様なHU値でOARを識別する点に着想を得て, 分割線形関数(SLF)を用いてCT画像を変換することを提案する。 0.70
More specifically, assume increasing numbers [x1, x2, ..., xK] in [0,1] and corresponding K HU values [h1, h2, ..., hK] in [hmin, hmax], where hmin and hmax represent the minimal and maximal HU value of CT images, respectively. 具体的には、[0,1]では[x1, x2, ..., xK]、[hmin, hmax]では対応するK HU値[h1, h2, ..., hK]の増加を仮定し、hminとhmaxはそれぞれCT画像の最小HU値と最大HU値を表す。 0.87
Assume the original HU value is h, and the transformed intensity x is represented as: 元のHU値がhであると仮定し、変換強度xを次のように表現する。 0.66
x = 0, hi + h−hi hi+1−hi 1, x = 0, hi + h+1-hi 1。 0.82
, h ≤ h1 hi < h ≤ hi+1, i ∈ [1, K] , h ≤ h1 hi < h ≤ hi+1, i ∈ [1, K] 0.92
h > hK Figure 4: Visualization of a CT image with different intensity transform functions. h > hK 図4: 異なる強度変換関数を持つCT画像の可視化。 0.82
The sub-figures from left to right are transformed CT images based on: (a) our SLF1 that gives a better visualization to both bone and soft tissues, (b) NLF1 that highlights soft tissues and (c) NLF2 that preserves the internal structure and boundary shape of bone tissues while reduce the visibility of soft tissues. 左から右へのサブフィギュアは、(a)骨組織と軟部組織の両方をよりよく視覚化するSLF1、(b)軟部組織をハイライトするNLF1、(c)軟部組織の内部構造と境界形状を保存し、軟部組織の視認性を低下させるNLF2に基づいて、CT画像に変換される。 0.75
In this work, we set K = 4, [x1, x2, x3, x4]=[0, 0.2, 0.8, 1.0], and use three different SLFs: SLF1, SLF2, SLF3, with [h1, h2, h3, h4] set as [-500, -200, 200, 1500], [-500, -100, 100, 1500] and [-500, -100, 400, 1500], respectively. 本研究では,K = 4, [x1, x2, x3, x4]=[0, 0.2, 0.8, 1.0] を設定し,[h1, h2, h3, h4] を [-500, -200, 200, 1500], [-500, -100, 100, 1500] と[-500, -100, 400, 1500] の3種類の SLF を用いる。 0.85
We also compared them with two types of NLFs: NLF1, NLF2, with corresponding [h1, h2] set as [-100, 100] to focus on soft tissues and [-500, 800] for large window width, respectively, as shown in Fig. また, nlf1, nlf2, 対応する[h1, h2] を [-100, 100] に設定し, 軟組織に焦点をあて, 窓幅が大きい [-500, 800] をそれぞれ図に示すように, nlf1 と nlf2 を比較した。 0.78
3(b). (1) Fig. 3(b)。 (1) フィギュア。 0.68
4 shows a visual comparison of different intensity transforms (i.e., SLF1, NLF1 and NLF2) applied to HAN CT 4 は HAN CT に適用される異なる強度変換 (すなわち SLF1, NLF1, NLF2) の視覚的比較を示す。 0.83
4  4  0.85
SLF-NSLF-1......Atte ntion to Hard Pixels......3D SepNetWeighted EnsembleandUncertain ty Estimation3D SepNetHardness Weighted Loss𝐴𝑇𝐻−𝐿𝑒𝑥𝑝Hardness Weighted Loss𝐴𝑇𝐻−𝐿𝑒𝑥𝑝HUHU......Prediction sTransformed StacksInput Stacksof CT SlicesGround TruthFinal Prediction......Unce rtainty StacksTestTrain(a) Naive Linear Functions (NLFs) (b) Segmental Linear Functions (SLFs)AxialAxial Coronal Sagittal(a)SLF1(b)NL F1(c)NLF2Temporal Lobes LeftTemporal Lobes Right Left Temporomandibular JointRight Temporomandibular JointBrain Stem Optic Chiasma Middle Ear RightSpinal CordInner Ear LeftParotid Gland RightMiddle Ear LeftParotid Gland Left Inner Ear RightPituitary 3D SepNetHardness Weighted LossATH−LexpHardness Weighted LossATH−LexpHUHU......Predic tionsTransformed StacksInput Stacksof CT SlicesGround Truthinal Prediction......Unce rtainty StacksTestTrain(a) Naive Linear Functions(NLFs) (b) Segmental Linear Functions(SLFs)Axial Axial Coronal Sagittal(a)SLF1(b)NL F1(c)NLF2Temporal Lobes leftTemporal Lobes RightTempoular Tempor Tempor TemporientRightor JointRightor Tempor Tempomular Joint Emular Stemular Stemular Emical Eidial Right Eidial Gidner Right Euitner Right Euitner(右)。 0.77
英語(論文から抽出)日本語訳スコア
Figure 5: Our proposed network 3D-SepNet for segmentation of OARs from images with large inter-slice spacing. 図5: 大スライス間隔の画像からOARのセグメンテーションを行うネットワーク3D-SepNetを提案しました。 0.74
Blue and white boxes indicate feature maps. 青と白のボックスは特徴マップを示します。 0.71
Block(n) represents a convolutional block with n channels, where three intra-slice layers (yellow arrows) are followed by one inter-slice convolutional layer (red arrow) and a skip connection with one 1 × 1 × 1 convolutional layer is used for better convergence. Block(n) は n チャンネルを持つ畳み込みブロックを表し、3 つのスライス内層 (黄色い矢印) に 1 つのスライス間畳み込み層 (赤い矢印) が続き、1 つの 1 × 1 × 1 畳み込み層とのスキップ接続がより良い収束に使用されます。 0.79
scans. From axial view, it could be observed that NLF1 suppresses the bones and improves the visibility of soft tissues, while NLF2 improves the visibility of bones but makes soft tissues hardly distinguishable. スキャン 軸方向から見ると、NLF1は骨を抑制し、軟部組織の可視性を向上させるが、NLF2は骨の可視性を改善するが軟部組織の識別は困難である。 0.54
Each of these intensity transforms makes it hard to segment multiple OARs including bones (e.g., mandible) and soft tissues at the same time. これらの強度変換は、骨(例えば下顎骨)と軟組織を含む複数のオールを同時に分割することが困難である。 0.78
In contrast, our SLF1 obtains high visibility for both soft tissue and bones, which is beneficial for the segmentation of multiple OARs with complex intensity distributions. 対照的に,SLF1は軟部組織および骨の視認性が高く,複雑な強度分布を有する複数のOARのセグメンテーションに有用である。 0.73
3.2. Network Architecture 3.2. ネットワークアーキテクチャ 0.73
Due to the large inter-slice spacing and sharp boundary between bones and nearby soft tissues, upsampling the images along the z axis to obtain a high 3D isotropic resolution will produce plenty of artifact on the interpolated slices and mislead the segmentation results. 骨と周辺の軟組織の間には大きなスライス間隔と鋭い境界があるため、z軸に沿って画像をサンプリングして高い3d等方分解能を得ると、補間されたスライス上に十分なアーティファクトを生成し、セグメンテーション結果を誤解することになる。 0.70
Therefore, we directly use the stacks of 2D slices for segmentation. したがって、2Dスライスのスタックを直接セグメンテーションに使用します。 0.73
As 2D networks ignore the correlation between adjacent slices and standard 3D networks with isotropic 3D convolutions (e.g., with 3 × 3 × 3 kernels) lead to imbalanced physical receptive field (in terms of mm rather than voxels) along each axis with different voxel spacings, we propose a 2.5D network combining intra-slice convolutions and inter-slice convolutions to deal with this problem. 2Dネットワークは、隣接するスライスと標準3Dネットワークの等方的3D畳み込み(例えば、3×3×3カーネル)の相関を無視するため、各軸に沿って異なるボクセル間隔を持つ不均衡な物理的受容場(ボクセルではなくmm)を導出するので、この問題に対処するためにスライス内畳み込みとスライス間畳み込みを組み合わせた2.5Dネットワークを提案する。 0.71
As shown in Fig. 5, our proposed network (3D SepNet) is based on the backbone of 3D UNet [27] with 12 convolutional blocks in an encoder-decoder structure. 図に示すように。 提案するネットワーク(3D SepNet)は,エンコーダ・デコーダ構造で12個の畳み込みブロックを持つ3次元UNet[27]のバックボーンに基づいている。 0.77
Since the inter-slice and intra-slice voxel spacings of our experimental images are around 3 mm and 1 mm respectively, small organs like optical nerves/chiasma would only cross few slices. 実験画像のスライス間およびスライス内ボクセル間隔は,それぞれ3mmおよび1mm程度であるため,光学神経/キアスマなどの小器官は数スライスに過ぎなかった。 0.69
Therefore, applying standard 3D convolutions would blur their boundaries and be harmful to accuracy. したがって、標準的な3D畳み込みを適用すると境界が曖昧になり、精度に有害です。 0.54
We proposed to use spatially separable convolutions that separate a standard 3D convolution with a 3 × 3 × 3 kernel into an intra-slice convolution with a 1 × 3 × 3 kernel and an inter-slice convolution with a 3 × 1 × 1 kernel. 3 × 3 × 3 カーネルで標準的な3D畳み込みを、1 × 3 × 3 カーネルでスライス内畳み込み、3 × 1 × 1 カーネルでスライス間畳み込みに分離する空間分離可能な畳み込みを使用することを提案した。
訳抜け防止モード: 3 × 3 × 3 の核を持つ標準的な 3d 畳み込みを 1 × 3 × 3 の核を持つスライス畳み込みに分離する空間分離可能な畳み込みを用いることを提案した。 3 × 1 × 1 のカーネルとの中間スライス畳み込み。
0.73
Considering the large inter-slice spacing, we use one inter-slice convolution after each three intra-slice convolutions, as shown in Fig. 大きなスライス間間隔を考えると、図に示すように、3つのスライス間コンボリューションの後に1つのスライス間コンボリューションを使用する。 0.52
5. The spatially separable convolution is implemented in Pytorch by simply specifying the kernel size. 5. 空間分離可能な畳み込みは、単純にカーネルサイズを指定することでpytorchに実装される。 0.73
We use Instance Normalization (IN) [45] and Rectified Linear Units (ReLU) [46] after each convolutional layer. 我々は、各畳み込み層の後、インスタンス正規化(IN)[45]とRectified Linear Units(ReLU)[46]を使用する。 0.80
A skip connection with a 1 × 1 × 1 convolutional layer is used in each block for better convergence. スキップ接続 1 × 1 × 1 の畳み込み層は、より収束するために各ブロックで使用される。 0.63
The number of channels (n) is doubled after each max pooling in the encoder. エンコーダ内の各最大プール後に、チャネル(n)の数が倍になる。 0.79
We concatenate feature maps from the encoding path with the corresponding feature maps in the decoding path for better performance. エンコーディングパスから機能マップをデコードパス内の対応する機能マップと連結して、パフォーマンスを向上させます。 0.74
A final layer of 1 × 1 × 1 convolution with the softmax function provides the segmentation probabilities. ソフトマックス関数との 1 × 1 × 1 の畳み込みの最終層は、セグメンテーション確率を与える。 0.75
3.3. Attention to Hard voxels 3.3. ハードボクセルへの注意 0.68
In our task, the ratio between the background and the smallest organ can reach around 105 : 1, which makes the loss function values dominated by large numbers of easy background voxels. 私たちのタスクでは、背景と最小臓器の比率は105 : 1程度に達することができ、損失関数の値は多くの簡単な背景ボキセルによって支配されます。 0.74
To solve this problem, we first use the exponential logarithmic loss [6] (LExp), which balances the labels not only by their relative sizes but also by their segmentation difficulties: この問題を解決するために、まず指数対数損失 [6] (lexp) を用いて、ラベルを相対的なサイズだけでなくセグメンテーションの困難さによってバランスさせる。 0.75
LExp = ωDS CLDS C + ωCrossLCross LExp = ωDS CLDS C + ωCrossLCross 0.94
(2) with ωDS C and ωCross are the weights of the exponential logarithmic DSC loss (LDS C) and the exponential cross-entropy (LCross), respectively. (2) ωDS C と ωCross は指数対数的 DSC 損失 (LDS C) と指数交叉エントロピー (LCross) の重みである。 0.79
2[(cid:80) {(cid:80) 2[(cid:80) {(cid:80) 0.90
LDS C = E[(−ln(DS Cc))γDS C ] LDS C = E[(−ln(DS Cc))γDS C ] 0.85
x gc(x)pc(x)] +  DS Cc = x[gc(x) + pc(x)]} +  LCross = E{wc{−ln[pc(x)]}γCross} x gc(x)pc(x)] + s DS Cc = x[gc(x) + pc(x)]} + s LCross = E{wc{−ln[pc(x)]}γCross} 0.79
(3) (4) (5) (3) (4) (5) 0.85
ples. wc = (((cid:80) ples. wc = (((cid:80)) 0.83
where x is a voxel and c is a class. x はボクセル、c はクラスである。 0.58
pc(x) is the predicted probability of being class c for voxel x, and gc(x) is the corresponding ground truth label. pc(x) は voxel x のクラス c の予測確率であり、gc(x) は対応する接地真理ラベルである。 0.77
E[·] is the mean value with respect to c and x in LDS C and LCross, respectively. E[·] はそれぞれ LDS C と LCross における c と x の平均値である。 0.68
 = 1 is the pseudocount for additive smoothing to handle missing labels in training samk fk)/ fc)0.5 is the class-level weight for reducing the influence of more frequently seen classes, where fk is the frequency of class k. We set ωDS C, ωCross, γDS C, γCross = 1 in our experiments according to [6]. samk fk)/fc)0.5 は、より頻繁に見られるクラスの影響を減らすためのクラスレベルの重みであり、fk はクラス k の周波数である。
訳抜け防止モード: samk fk)/ fc)0.5は、より頻繁に見られるクラスの影響を減らすためのクラス-レベル重みである。 ここで fk はクラス k の周波数であり、 ωds c を集合する。 ωcross, γds c, γcross = 1 実験は [6 ] に従って行われた。
0.74
Unlike LCross, LDS C weights voxels in one certain label mainly considering its segmentation difficulty and the formu- LCross とは異なり, LDS C は主に分節難易度と formu を考慮した特定のラベル内のボキセルを重み付けする。 0.58
5 Copy and Concatenate n – Number of ChannelsN – Number of Labels Conv (1×3×3) + IN + ReLU Conv (3×1×1) + IN + ReLU Conv (1×1×1) Conv (1×1×1) + Softmax Concatenate+ IN + ReLU Max Pooling (2×2×2) Up Sampling (2×2×2)N = 23ImageBlock(48)Bloc k(48)Block(96)Block( 192)Block(96)Block(9 6)Block(48)Block(48) Block(48)Conv(48)Con v(48)Block(n) 5 Copy and Concatenate n – Number of ChannelsN – Number of Labels Conv (1×3×3) + IN + ReLU Conv (3×1×1) + IN + ReLU Conv (1×1×1) Conv (1×1×1) + Softmax Concatenate + IN + ReLU Max Pooling (2×2×2) Up Sampling (2×2×2)N = 23ImageBlock(48)Bloc k(96)Block(192)Block (96)Block(96)Block(4 8)Block(48)Block(48) Conv(48)Conv(48)Bloc k(48)Block(n) 0.89
英語(論文から抽出)日本語訳スコア
(a) gc = 1 (b) gc = 0 (a)gc = 1 (b) gc = 0 0.85
Figure 6: Weighted prediction pw c with different α and ground truth label gc for a voxel. 図6:voxelの異なるαと接地真理ラベルgcの重み付き予測pw c。 0.67
pw c is lower than pc for gc = 1 and higher for gc = 0, meaning the weighted prediction is further away from the ground truth than gc, which leads a less accurate prediction to have a larger impact on the backpropagation. pw c は gc = 1 に対して pc より低く、gc = 0 では高いので、重み付き予測は gc よりも基底真理から遠ざかっており、逆伝播により大きな影響を及ぼすような精度の低い予測が導かれる。 0.85
lation of LDS C can be differentiated yielding the gradient : ∂LDS C ∂pc(x) LDS C の lation は勾配を与えることができる : ∂LDS C ∂pc(x) 0.89
∂DS Cc ∂pc(x) ∂ds cc ∂pc(x) 0.86
= 2{gc(x)(cid:80) = 2{gc(x)(cid:80) 0.92
x[gc(x) + pc(x)] −(cid:80) {(cid:80) x[gc(x) + pc(x)] −(cid:80) {(cid:80) 0.97
x[gc(x) + pc(x)]}2 x[gc(x) + pc(x)]}2 0.74
∂LDS C ∂DS Cc = − 1 ∂LDS C ∂DS Cc = − 1 0.94
DS Cc x pc(x)gc(x)} DS Cc x pc(x)gc(x)} 0.85
(6) It is easy to observe that for a hard voxel x in easy class c, with pc(x) far away from gc(x), the absolute value of gradient ∂LDS C is restrained compared with a voxel x in hard region be∂DS Cc is constrained around 1 with DS Cc ≈ 1. cause the value ∂LDS C ∂DS Cc Therefore, it may limit the performance of CNNs on hard voxels, most of which lie on the the boundary between different objects, in large or easy regions, and it will be helpful to force the network to focus on the hard voxels to balance this contradiction. (6) gc(x) から遠く離れた pc(x) を持つ簡単なクラス c のハードボキセル x に対しては、ハード領域のvoxel x と比較してグラデーションの絶対値が抑制されることが容易に観察できる。DS Cc は DS Cc で 1 前後に制限されているので、ハードボキセルのCNN の性能が制限される可能性がある。
訳抜け防止モード: (6) 難解なボクセル x について、簡単なクラス c において観察することは容易である。 gc(x) から遠いpc(x) では、ハード領域 be∂ds cc におけるvoxel x と比較して勾配 ∂lds c の絶対値が抑えられる。 ハードボクセル上のcnnの性能を制限し、そのほとんどは 異なる対象の境界の上にあり、大きな、あるいは容易な領域にある。 そして、この矛盾を和らげるために、ネットワークがハードボクセルに集中するよう強制することは有益である。
0.62
More formally, we propose to multiply the prediction result by a weighting function wc(x) before sending it into LDS C, with a tunable attention parameter α > 0: より正式には、LDS Cに送信する前に重み付け関数 wc(x) で予測結果を乗算し、調整可能な注意パラメータ α > 0 を提案する。 0.74
wc(x) = e pc(x)−gc(x) pw c (x) = pc(x)wc(x) wc(x) = e pc(x)−gc(x) pw c(x) = pc(x)wc(x) 0.88
α (7) c (x) is the weighted prediction. α (7) c (x) は重み付き予測である。 0.84
A higher value of pw (8) c (x) where pw represents a higher possibility of voxel x belonging to class c. Fig. pwのより高い値。 (8) c (x) ここで pw はクラス c. fig に属するボクセル x のより高い可能性を表す。 0.85
6 shows the effect of weighting function wc(x) with different values of α for gc = 1 and gc = 0, respectively. 6 は、それぞれ gc = 1 と gc = 0 に対して α の異なる値を持つ加重関数 wc(x) の効果を示す。 0.83
It can c (x) is lower than pc(x) for gc(x) = 1 and be observed that pw higher for gc(x) = 0, meaning the weighted prediction is further away from the ground truth than the original prediction. c (x) は gc(x) = 1 に対して pc(x) よりも低く、gc(x) = 0 に対して pw が高いことが観測できる。
訳抜け防止モード: gc(x) = 1 の場合、c(x) は pc(x) よりも低い。 そして、gc(x) = 0 に対して pw が高くなることを観察する。 つまり、重み付き予測は元の予測よりも基礎的真理から遠ざかっている。
0.82
As a result, the weighted harder region will have a larger impact on the backpropagation as they have larger gradient values than accurately predicted voxels. その結果、重み付けされた硬い領域は、正確に予測されたボクセルよりも勾配値が大きいため、バックプロパゲーションに大きな影響を与える。 0.64
Generally, it can get more room for improvement and have the network focus more on hard voxels. 一般的には、改善の余地が増え、ネットワークはよりハードなvoxelに集中することができる。 0.74
We refer to this weighting strategy as attention to hard voxels (AT H). 我々はこの重み付け戦略をハードボクセル (AT H) への注意とみなす。 0.71
It should be noticed that AT H can be combined with a standard loss function in the training progress, and we combine it with LExp due to its better performance than standard Dice loss and cross entropy loss. AT Hは訓練の進歩の標準的な損失機能と結合できることに注意されるべきです、そして私達は標準的なDiceの損失および十字のエントロピーの損失よりよい性能によるLExpとそれを結合します。 0.74
Our loss function with AT H is named as AT H − LExp. AT H の損失関数は AT H − LExp と命名される。 0.81
3.4. Model Ensemble and Uncertainty Estimation 3.4. モデルアンサンブルと不確かさ推定 0.73
To achieve robust segmentation and obtain segmentation uncertainty at the same time, we use an ensemble of models 頑健なセグメンテーションを実現し、同時にセグメンテーションの不確実性を得るために、モデルのアンサンブルを用いる。 0.55
6 trained with different SLFs and ATHs based on different α, as shown in Fig. 6 図に示すように、異なるαに基づいて異なるSLFとATHで訓練された。 0.79
2. Since these models perform differently on different organs, we implement the ensemble for each class respectively and use a class-wise weighted average for ensemble. 2. これらのモデルは異なる臓器で異なる働きをするので,各クラスでそれぞれアンサンブルを実装し,クラスごとの重み付け平均を用いてアンサンブルを行う。 0.75
Specifically, for class c, a model with a higher performance on c is assigned with a higher weight. 具体的には、クラスcに対して、cに高い性能を持つモデルに、より高い重量を割り当てる。 0.74
For a model obtaining the ith highest DSC for class c of the validation set, its predicted probability map of class c and the corresponding weight for a test image are denoted as Pi c to 5, 4, 3, 1, 1, 1 for i=1, 2, ...,6 respectively. バリデーションセットのクラス c に対する Ith highest DSC を得るモデルにおいて、クラス c の予測確率写像と、テスト画像に対する対応する重みを、それぞれ i=1, 2, ...,6 に対して Pi c から 5, 4, 3, 1, 1, 1 と表記する。 0.82
The final probability map for class c of a test image is: テスト画像のクラス c の最終確率マップは次のとおりです。 0.85
c respectively. We set wi cはそれぞれ。 wiをセットし 0.66
c and wi (cid:80) c(cid:80) cとwi (cid:80)c(cid:80) 0.69
i wi cPi i wi c i wi cPi i wi c 0.85
ˆPc = (9) Based on the predictions of multiple models, it is straightforward to obtain the segmentation uncertainty that is typically estimated by measuring the diversity of multiple predictions for a given image [39]. ※Pc= (9) 複数のモデルの予測に基づいて、与えられた画像[39]に対する複数の予測の多様性を測定することにより、通常推定されるセグメント化の不確実性を得る。 0.75
Supposing X denotes a test image and Y the predicted label of X. Spposing X はテスト画像を表し、Y は X の予測ラベルである。 0.85
Using the variance and entropy of the distribution p(Y|X) are two common methods for uncertainty estimation. 分布 p(y|x) の分散とエントロピーの利用は、不確実性推定の2つの一般的な方法である。 0.66
Similarly to [40], it is a promising choice to estimate uncertainty by ensemble method, using multiple independently learned models. 40]と同様、複数の独立学習モデルを用いてアンサンブル法による不確実性を推定することは有望な選択である。 0.75
We use the entropy to represent the voxel-wise uncertainty: エントロピーはボクセル的不確実性を表すのに使われます。 0.44
H(Y|X) = − H(Y|X) = − 0.92
p(y|X)ln(p(y|X))dy p(y|X)ln(p(y|X))dy 0.90
(10) (cid:90) (10) (cid:90) 0.82
Suppose Y(x) denotes the predicted label for voxel x. Y(x) が voxel x の予測ラベルを表すと仮定する。 0.84
With predictions from N models, a set of values Y = {y1(x), y2(x), ..., yN(x)} can be obtained. N モデルからの予測により、値 Y = {y1(x), y2(x), ..., yN(x)} の集合が得られる。 0.73
Therefore, the voxelwise uncertainty can be approximated as: したがって、voxelwise不確実性は次のように近似することができる。 0.46
H(Y|X) ≈ − M(cid:88) H(Y|X) ^ − M(cid:88) 0.84
ˆpm(x)ln( ˆpm(x)) ~pm(x)ln( ~pm(x)) 0.93
(11) m=1 where ˆpm(x) is the frequency of the mth unique value in Y. (11) m=1 ここで pm(x) は Y の m 個の一意値の周波数である。 0.72
We also estimate the structure-wise uncertainty for each OAR by calculating the Volume Variation Coefficient (VVC). また,各OARにおける構造的不確かさを,VVC(Volume Variation Coefficient)の計算により推定する。 0.73
Let Vi = {vi N} denote the set of volumes of OAR i obtained by N models, and µVi and σVi denote the mean value and standard deviation of Vi respectively. Vi = {vi N} は N モデルによって得られる OAR i の体積集合を表し、μVi と σVi はそれぞれ Vi の平均値と標準偏差を表す。 0.81
We use the VVC to estimate the structure-wise uncertainty for OAR i: 我々はVVCを用いてOARの構造的不確かさを推定する。 0.63
2, ..., vi 2, ..., vi 0.71
1, vi VVCi = 1、vi VVCi = 0.77
µVi σVi (12) μVi σVi (12) 0.78
4. Experiments and Results Our proposed methods are evaluated on two segmentation tasks: (1) StructSeg 2019 challenge training dataset consisting of CT scans from 50 NPC patients where 22 OARs are to be segmented. 4. 実験と結果 提案手法は以下の2つのセグメンテーション課題に基づいて評価される: (1) OAR22個をセグメンテーションする50名のNPC患者のCTスキャンからなるStructSeg 2019チャレンジトレーニングデータセット。 0.83
(2) A mixed HAN CT dataset containing 165 volumes from three sources: 50 volumes from StructSeg 2019, 48 volumes from MICCAI 2015 Head and Neck challenge [28] and 67 volumes collected locally with NPC before radiotherapy treatment, where we segment 7 OARs that are annotated 2)StructSeg 2019から50巻、MICCAI 2015 Head and Neck Challenge [28]から48巻、放射線治療前にNPCでローカルに収集された67巻の3つのソースから165巻を含む混合HAN CTデータセット。
訳抜け防止モード: (2 )3つの資料から165巻を含む混合HANCTデータセット : StructSeg 2019の50巻 MICCAI 2015 Head and Neck Challenge [28] 放射線治療前, 局所的にNPCを採取した67巻, 注釈を付した7巻のOARを分離した。
0.72
0.00.20.40.60.81.0pc 0.00.20.40.60.81.0pw cpwc=pcepcgc=0.5=1=2pwc=pc0.00.20.40.60.81.0 pc0.00.51.01.52.02.5 3.03.54.0pwcpwc=pcepcgc=0.5=1=2pwc=pc 0.00.20.40.60.81.0pc 0.00.20.40.60.81.0pw cpwc=pcepcgc=0.5=1=2pwc=pc0.00.20.40.81.0pc0 .00.51.52.53.03.54.0 pwcpwc=pcepcgc=0.5=2pwc=pc 0.03
英語(論文から抽出)日本語訳スコア
Table 1: DSC (mean±std %) and ASSD (mean±std mm) evaluation of 3D HAN OARs segmentation in StructSeg 19 task1, with 3D-SepNet, 3 different intensity transform methods and 3 different loss functions. 表1:DSC(平均±std %)とASSD(平均±std mm)は、StructSeg 19 Task1における3D HAN OARsセグメンテーションの評価、3D-SepNet、3つの異なる強度変換方法、3つの異なる損失関数を備えています。 0.69
The best result is in bold font. 最良の結果は大胆なフォントです。 0.78
95%HD (mean±std mm)↓ 95%HD(平均±std mm)。 0.88
ATH − LExp (ours) ATH − LExp (ours) 0.85
NLF1 3.11±0.18 2.38±0.32 2.44±0.60 2.42±0.39 2.51±0.44 2.77±0.64 3.05±1.04 4.07±1.33 4.39±1.10 5.43±1.69 3.15±1.31 3.91±0.52 3.70±0.58 2.61±0.47 2.77±0.46 3.77±1.58 3.65±1.00 2.74±0.58 2.47±0.42 2.89±0.24 2.68±0.63 2.55±0.53 3.16±0.29 NLF1 3.11±0.18 2.38±0.32 2.44±0.60 2.42±0.39 2.51±0.44 2.77±0.64 3.05±1.04 4.07±1.33 4.39±1.10 5.43±1.69 3.15±1.31 3.91±0.52 3.70±0.58 2.61±0.47 2.77±0.46 3.77±1.58 3.65±1.00 2.74±0.58 2.47±0.42 2.89±0.24 2.68±0.63 2.55±0.53 3.16±0.29 0.18
NLF2 2.82±0.26 2.44±0.26 2.45±0.20 2.37±0.38 2.38±0.32 2.74±0.67 3.04±0.84 3.72±0.79 4.43±1.02 4.52±0.93 3.01±0.96 3.82±0.66 3.60±0.49 2.85±0.76 2.95±0.58 4.65±1.68 3.37±0.91 2.97±0.40 2.72±0.52 2.84±0.32 3.16±0.67 2.72±0.43 3.16±0.29 NLF2 2.82±0.26 2.44±0.26 2.45±0.20 2.37±0.38 2.38±0.32 2.74±0.67 3.04±0.84 3.72±0.79 4.43±1.02 4.52±0.93 3.01±0.96 3.82±0.66 3.60±0.49 2.85±0.76 2.95±0.58 4.65±1.68 3.37±0.91 2.97±0.40 2.72±0.52 2.84±0.32 3.16±0.67 2.72±0.43 3.16±0.29 0.18
2.79±0.27 2.47±0.31 2.56±0.20 2.37±0.38 2.47±0.45 2.90±0.78 2.93±0.77 3.83±0.87 4.31±0.85 4.38±0.77 2.92±1.01 3.71±0.64 3.49±0.66 2.85±0.62 2.77±0.45 3.33±0.87 3.54±1.24 2.85±0.70 2.63±0.51 2.78±0.33 2.81±0.45 2.70±0.40 3.06±0.24 2.79±0.27 2.47±0.31 2.56±0.20 2.37±0.38 2.47±0.45 2.90±0.78 2.93±0.77 3.83±0.87 4.31±0.85 4.38±0.77 2.92±1.01 3.71±0.64 3.49±0.66 2.85±0.62 2.77±0.45 3.33±0.87 3.54±1.24 2.85±0.70 2.63±0.51 2.78±0.33 2.81±0.45 2.70±0.40 3.06±0.24 0.17
LExp SLF1 (ours) 3.93±0.41 2.53±0.36 2.46±0.22 2.52±0.40 2.59±0.52 2.83±0.63 3.18±1.03 4.71±1.49 4.66±0.86 4.88±0.75 3.41±1.49 4.68±0.77 4.68±1.09 3.28±0.87 3.20±0.63 4.34±2.38 3.77±1.09 2.78±0.45 2.94±0.42 3.42±0.23 3.71±0.96 3.07±0.57 3.53±0.27 LExp SLF1 (ours) 3.93±0.41 2.53±0.36 2.46±0.22 2.52±0.40 2.59±0.52 2.83±0.63 3.18±1.03 4.71±1.49 4.66±0.86 4.88±0.75 3.41±1.49 4.68±0.77 4.68±1.09 3.28±0.87 3.20±0.63 4.34±2.38 3.77±1.09 2.78±0.45 2.94±0.42 3.42±0.23 3.71±0.96 3.07±0.57 3.53±0.27 0.52
DSC Loss 3.13±0.26 2.56±0.38 2.59±0.23 2.42±0.42 2.39±0.37 2.29±0.88 3.07±1.07 3.70±0.55 4.58±0.88 4.33±0.70 3.21±1.46 3.98±0.73 3.97±0.90 2.74±0.92 2.85±0.53 3.57±1.40 3.47±0.81 2.80±0.65 2.54±0.46 2.84±0.32 3.31±0.68 3.67±0.50 3.17±0.20 DSC Loss 3.13±0.26 2.56±0.38 2.59±0.23 2.42±0.42 2.39±0.37 2.29±0.88 3.07±1.07 3.70±0.55 4.58±0.88 4.33±0.70 3.21±1.46 3.98±0.73 3.97±0.90 2.74±0.92 2.85±0.53 3.57±1.40 3.47±0.81 2.80±0.65 2.54±0.46 2.84±0.32 3.31±0.68 3.67±0.50 3.17±0.20 0.19
Metric Transform Loss メートル法 変容 損失 0.59
Brain Stem Eye L Eye R Lens L Lens R 脳幹 アイLアイRレンズLレンズR 0.59
Opt Nerve L Opt Nerve R Opt Chiasma Opt Nerve L Opt Nerve R Opt Chiasma 0.85
Temporal Lobes L Temporal Lobes R テンポラルローブ L テンポラルローブ R 0.55
Pituitary Parotid Gland L Parotid Gland R 下垂体 Parotid Gland L Parotid Gland R 0.67
Inner Ear L Inner Ear R Mid Ear L Mid Ear R TM Joint L TM Joint R Spinal Cord Mandible L Mandible R Inner Ear L Inner Ear R Mid Ear L Mid Ear R TM Joint L TM Joint R Spinal Cord Mandible L Mandible R 0.85
Average DSC (mean±std %)↑ 平均 DSC (平均±std %)。 0.80
ATH − LExp (ours) ATH − LExp (ours) 0.85
NLF1 88.0±2.0 89.2±3.0 87.9±4.6 80.5±6.5 75.7±9.8 68.5±12.1 64.2±13.9 54.9±8.5 86.2±2.6 83.5±4.5 64.6±22.6 84.9±3.4 85.2±2.8 79.4±5.4 79.6±7.4 81.8±8.4 77.2±11.0 77.2±7.9 78.1±7.0 83.1±2.5 90.4±3.6 91.8±2.8 79.6±2.4 NLF1 88.0±2.0 89.2±3.0 87.9±4.6 80.5±6.5 75.7±9.8 68.5±12.1 64.2±13.9 54.9±8.5 86.2±2.6 83.5±4.5 64.6±22.6 84.9±3.4 85.2±2.8 79.4±5.4 79.6±7.4 81.8±8.4 77.2±11.0 77.2±7.9 78.1±7.0 83.1±2.5 90.4±3.6 91.8±2.8 79.6±2.4 0.18
NLF2 88.9±1.6 88.3±4.1 88.0±2.8 81.9±6.2 77.2±10.9 69.8±10.3 63.9±11.3 53.5±11.2 86.3±3.8 86.9±3.1 62.8±19.1 85.1±3.3 86.1±2.2 78.9±5.2 78.0±6.7 82.0±9.8 78.4±10.4 75.7±7.4 75.8±6.3 82.1±4.7 89.3±3.8 90.5±3.0 79.5±2.3 NLF2 88.9±1.6 88.3±4.1 88.0±2.8 81.9±6.2 77.2±10.9 69.8±10.3 63.9±11.3 53.5±11.2 86.3±3.8 86.9±3.1 62.8±19.1 85.1±3.3 86.1±2.2 78.9±5.2 78.0±6.7 82.0±9.8 78.4±10.4 75.7±7.4 75.8±6.3 82.1±4.7 89.3±3.8 90.5±3.0 79.5±2.3 0.18
89.7±1.7 88.6±3.4 87.3±2.5 81.5±6.9 75.4±13.0 68.0±10.7 66.3±11.7 56.6±8.7 86.2±3.3 86.4±2.8 66.1±16.3 85.7±3.0 87.3±3.0 80.3±6.9 80.1±6.8 82.6±5.7 78.3±11.9 75.7±9.5 77.2±7.8 83.0±4.0 91.1±2.9 91.7±1.5 80.2±2.3 89.7±1.7 88.6±3.4 87.3±2.5 81.5±6.9 75.4±13.0 68.0±10.7 66.3±11.7 56.6±8.7 86.2±3.3 86.4±2.8 66.1±16.3 85.7±3.0 87.3±3.0 80.3±6.9 80.1±6.8 82.6±5.7 78.3±11.9 75.7±9.5 77.2±7.8 83.0±4.0 91.1±2.9 91.7±1.5 80.2±2.3 0.17
SLF1 (ours) LExp 81.5±2.4 87.2±4.8 86.1±3.3 75.0±8.2 74.5±9.1 67.2±12.4 61.4±13.8 49.1±10.4 84.3±3.1 83.6±2.9 62.2±21.4 79.4±3.1 78.9±3.9 74.0±6.4 73.2±8.0 78.6±10.9 76.3±10.5 74.3±8.9 72.5±8.0 73.3±6.1 85.9±4.0 88.3±2.6 75.8±1.8 SLF1 (ours) LExp 81.5±2.4 87.2±4.8 86.1±3.3 75.0±8.2 74.5±9.1 67.2±12.4 61.4±13.8 49.1±10.4 84.3±3.1 83.6±2.9 62.2±21.4 79.4±3.1 78.9±3.9 74.0±6.4 73.2±8.0 78.6±10.9 76.3±10.5 74.3±8.9 72.5±8.0 73.3±6.1 85.9±4.0 88.3±2.6 75.8±1.8 0.20
DSC Loss 88.0±2.0 86.0±5.0 86.2±3.0 80.4±6.5 77.8±9.9 69.1±12.1 64.9±12. DSC 88.0±2.0 86.0±5.0 86.2±3.0 80.4±6.5 77.8±9.9 69.1±12.1 64.9±12 0.25
55.5±13.6 85.8±3.0 86.8±2.4 65.3±23.6 84.5±3.5 85.1±2.0 79.1±7.0 78.3±8.1 83.5±5.4 78.5±9.9 76.7±8.7 78.7±7.5 82.7±4.0 89.5±3.0 91.6±2.1 79.7±2.3 55.5±13.6 85.8±3.0 86.8±2.4 65.3±23.6 84.5±3.5 85.1±2.0 79.1±7.0 78.3±8.1 83.5±5.4 78.5±9.9 76.7±8.7 78.7±7.5 82.7±4.0 89.5±3.0 91.6±2.1 79.7±2.3 0.18
in all of these three sources. これら3つの情報源の全てです 0.65
For comparison, we implemented 3D-UNet [27] with three versions: original one, SE block [47] added and residual connection [48] added, where we modified them by starting with 48 base channels and applying IN [45] for normalization. 比較のために、3d-unet [27] を3つのバージョンで実装した: オリジナル 1, se block [47] の追加と残余接続 [48] であり、48のベースチャネルから開始し、正規化に [45] を適用して修正した。 0.77
These networks and our proposed 3D-SepNet were implemented in PyTorch, trained on two NVIDIA 1080TI GPUs for 250 epochs with the Adam optimizer [49], batch size 6, initial learning rate 10−3 and weight decay 10−8. これらのネットワークと提案した3D-SepNetはPyTorchで実装され,Adamオプティマイザ[49],バッチサイズ6,初期学習率10−3,重量減衰10−8で2つのNVIDIA 1080TI GPUを250エポックでトレーニングした。 0.70
The learning rate was decayed by 0.9 every 10 epochs. 学習率は10エポックごとに0.9減少した。 0.70
Without resampling, each CT slice was cropped by a 256 × 256 window located at the center to focus on the body part. 再サンプリングなしでは、それぞれのCTスライスを中央に256×256の窓で収穫し、身体部分に集中した。 0.72
Random cropping of size 16 × 128 × 128 was used for data augmentation. データ増強には16 × 128 × 128 のランダムトリミングが用いられた。 0.84
Our code is available at https://github.com/H iLab-git/SepNet. コードはhttps://github.com/H iLab-git/SepNetで入手できます。 0.47
4.1. Results of StructSeg 2019 4.1. StructSeg 2019の結果。 0.78
We trained six models with three different SLFs (i.e., SLF1, SLF2 and SLF3) and two loss functions (i.e., AT H(α = 0.5) − LExp and AT H(α = 1) − LExp) with our 3D-SepNet. 我々は3つの異なるSLF(SLF1,SLF2,SLF3)と2つの損失関数(AT H(α = 0.5) − LExpとAT H(α = 1) − LExp)を3D-SepNetで訓練した。 0.73
Our algorithms were containerized with Docker2 and submitted to organizers of the StructSeg 2019 challenge to get results for the official testing set containing 10 images. 私たちのアルゴリズムはDocker2でコンテナ化され、StructSeg 2019チャレンジのオーガナイザに10のイメージを含む公式テストセットの結果を得るために提出されました。 0.64
For each test case, the algorithm requires at most 120 seconds to generate the output. 各テストケースでは、このアルゴリズムは出力を生成するのに120秒以上かかる。 0.76
Quantitative evaluation of the segmentation accuracy was based on Dice Similarity Coefficient (DS C) and 95% Hausdorff Distance (95%HD). セグメント化精度の定量的評価は, Dice similarity Coefficient (DS C) と 95% Hausdorff Distance (95%HD) に基づいて行った。 0.90
DS C = 2 × T P DS C = 2 × T P 0.85
2 × T P + FN + FP 2 × T P + FN + FP。 0.91
(13) where T P, FP and FN are true positive, false positive and false negative, respectively. (13) ここで、T P、FP、FNはそれぞれ正、偽陽性、偽陰性である。 0.73
The maximum Hausdorff Distance is the Hausdorff の最大距離は 1 です。 0.80
2https://www.docker. com/ 2https://www.docker. com/ 0.39
7 maximum distance of a set to the nearest point in the other set. 7 他のセットの一番近いポイントへのセットの最大距離。 0.77
The maximum Hausdorff Distance from set X to set Y is a maximin function, defined as dH(X, Y) = max{max x∈X 集合 X から集合 Y への最大ハウスドルフ距離は最大関数であり、dH(X, Y) = max{max x∈X と定義される。 0.85
d(x, y), max y∈Y d(x, y) max y∈Y 0.93
d(x, y)} min y∈Y d(x, y)} min y∈Y 0.78
min x∈X (14) min x∈X (14) 0.78
95%HD is similar to maximum HD, and it is based on the calculation of the 95th percentile of the distances between boundary points in X and Y. 95%HDは最大HDに似ており、XとYの境界点間の距離の95番目のパーセンタイルの計算に基づいています。 0.82
The purpose for using this metric is to eliminate the impact of a very small subset of the outliers. このメトリックを使用する目的は、アウトプライヤの非常に小さなサブセットの影響を排除することです。 0.77
Each type of the objective scores of different organs are weighted by their importance weights and then averaged. 異なる臓器のそれぞれの目的のスコアは、重要性の重みによって重み付けされ、平均化されます。 0.64
The 22 annotated OARs with importance weights include: left eye (100), right eye (100), left lens (50), right lens (50), left optical nerve (80), right optical nerve (80), optical chiasma (50), pituitary (80), brain stem (100), left temporal lobes (80), right temporal lobes (80), spinal cord (100), left parotid gland (50), right parotid gland (50), left inner ear (70), right inner ear (70), left middle ear (70), right middle ear (70), left temporomandibular joint (60), right temporomandibular joint (60), left mandible (100), right mandible (100). 左目(100)、右目(100)、左レンズ(50)、右レンズ(50)、左光神経(80)、右視神経(80)、視知(50)、下垂体(80)、脳幹(100)、左側頭葉(80)、右側頭葉(80)、脊髄(100)、左耳下腺(50)、右耳下腺(50)、右耳下腺(70)、右中耳(70)、右中耳(70)、右中耳(70)、右中耳(70)、右顎関節(60)、右顎関節(100)、右下顎(100)。
訳抜け防止モード: 重要な重みを持つ22の注釈付きOARには、左目(100)、右目(100)が含まれます。 左レンズ(50)、右レンズ(50)。 左の光学神経(80)、右の光学神経(80)、光学chiasma(50)。 下垂体(80)、脳幹(100)、左側頭葉(80)。 右側頭葉(80)、脊髄(100)。 左耳下腺(50)、右耳下腺(50)。 左内耳(70)、右内耳(70)。 左中耳(70)、右中耳(70)。 左顎関節(60)、右顎関節(60)。 左下顎(100)、右下顎(100)。
0.57
Eventually, the proposed method achieved weighted average DSC of 80.52% and 95%HD of 3.043 mm on the official test set. 最終的に、提案手法は公式試験セットで平均DSCが80.52%、95%HDが3.043mmに達した。 0.68
For ablation study, as the ground truth of the official testing images in StructSeg 2019 was not publicly available, we did not use any in-house data and randomly split the StructSeg 2019 training set into 40 images for training and the other 10 images for testing, which is referred to as local testing data. アブレーションスタディでは、StructSeg 2019の公式テストイメージの基本的な真実が公開されていないため、社内データを使用しず、StructSeg 2019トレーニングセットをトレーニング用に40の画像と、ローカルテストデータと呼ばれるテスト用の他の10のイメージにランダムに分割しました。 0.77
4.1.1. Comparison between Intensity Transform and Loss 4.1.1. 強度変換と損失の比較 0.60
Functions For quantitative comparison, Table 1 reports the performance on our local testing set achieved by models trained with 3D- 機能 定量的比較のために、表1は3dでトレーニングしたモデルによって達成されたローカルテストセットのパフォーマンスを報告します。 0.68
英語(論文から抽出)日本語訳スコア
Figure 7: Visual comparison of different intensity transformations and loss functions for segmentation of OARs, where SLF means Segmental Linear Function and NLF represents Naive Linear Function. 図7: 異なる強度変換とoarのセグメンテーションのための損失関数の視覚的比較。slfはセグメンテーション線形関数、nlfはナイーブ線型関数を表す。
訳抜け防止モード: 図7:OARのセグメンテーションにおける異なる強度変換と損失関数の視覚的比較 SLF はセグメンショナル線形関数を意味する NLFはNive Linear Functionを表す。
0.87
LExp is the exponential logarithmic loss and AT H − LExp represents the combination of our proposed AT H and LExp. LExpは指数対数損失であり、AT H − LExpは提案したAT HとLExpの組み合わせを表す。 0.81
Pointed by the red arrows in three views, it could be observed that models trained with SLF could distinguish OARs boundary, i.e. 3つのビューで赤い矢印を指して、SLFで訓練されたモデルがOAR境界を区別できることが観察できた。 0.80
inner ears and temporal lobes more accurately than models trained with NLFs. 内耳と側頭葉はNLFで訓練されたモデルよりも正確である。 0.61
What’s more, compared with LExp and Dice loss, AT H − LExp has network pay more attention to hard pixels like boundary in easy or large regions, thus achieving more accurate results. さらに、LExpやDiceの損失と比較すると、AT H − LExpは簡単に大きな領域の境界のようなハードピクセルにより多くの注意を払っているため、より正確な結果が得られる。 0.71
Table 2: Quantitative comparison between our 3D-SepNet and 3D-UNet based versions. 表2:当社の3D-SepNetと3D-UNetベースのバージョンの定量的比較。 0.61
These networks were trained with AT H(α = 0.5) − LExp and SLF1. これらのネットワークは AT H(α = 0.5) − LExp と SLF1 で訓練された。 0.73
Small organs contain lens, optical nerves, optical chiasma, pituitary and inner ears. 小さな臓器には、レンズ、光学神経、光学キマスマ、下垂体および内耳が含まれています。 0.64
The best result is in bold font. 最良の結果は大胆なフォントです。 0.78
Metric Network Brain Stem メートルネットワーク脳ステム 0.70
Eye L Eye R Lens L Lens R アイLアイRレンズLレンズR 0.71
Opt Nerve L Opt Nerve R Opt Chiasma Opt Nerve L Opt Nerve R Opt Chiasma 0.85
Temporal Lobes L Temporal Lobes R テンポラルローブ L テンポラルローブ R 0.55
Pituitary Parotid Gland L Parotid Gland R 下垂体 Parotid Gland L Parotid Gland R 0.67
Inner Ear L Inner Ear R Mid Ear L Mid Ear R TM Joint L TM Joint R Spinal Cord Mandible L Mandible R Inner Ear L Inner Ear R Mid Ear L Mid Ear R TM Joint L TM Joint R Spinal Cord Mandible L Mandible R 0.85
Average Small Organs Average 3D-SepNet (ours) 平均 小臓器平均 3D-SepNet (ours) 0.74
89.7±1.7 88.6±3.4 87.3±2.5 81.5±6.9 75.4±13.0 68.0±10.7 66.3±11.7 56.6±8.7 86.2±3.3 86.4±2.8 66.1±16.3 85.7±3.0 87.3±3.0 80.3±6.9 80.1±6.8 82.6±5.7 78.3±11.9 75.7±9.5 77.2±7.8 83.0±4.0 91.1±2.9 91.7±1.5 80.2±2.3 71.8±9.4 89.7±1.7 88.6±3.4 87.3±2.5 81.5±6.9 75.4±13.0 68.0±10.7 66.3±11.7 56.6±8.7 86.2±3.3 86.4±2.8 66.1±16.3 85.7±3.0 87.3±3.0 80.3±6.9 80.1±6.8 82.6±5.7 78.3±11.9 75.7±9.5 77.2±7.8 83.0±4.0 91.1±2.9 91.7±1.5 80.2±2.3 71.8±9.4 0.17
3D-UNet-Res 3D-UNet-Res 0.34
DSC (mean±std %)↑ 3D-UNet 86.9±1.8 88.5±2.9 87.4±4.4 75.2±5.2 71.8±16.0 66.9±12.6 60.9±12.6 52.2±10.9 84.7±3.7 85.4±4.1 65.9±19.8 85.5±3.8 87.0±3.0 78.0±6.0 76.2±7.3 81.8±6.6 77.1±10.1 74.9±8.3 76.6±5.4 83.7±3.3 91.5±2.8 91.7±2.1 78.6±3.0 68.4± 10.0 DSC (mean±std %)↑ 3D-UNet 86.9±1.8 88.5±2.9 87.4±4.4 75.2±5.2 71.8±16.0 66.9±12.6 60.9±12.6 52.2±10.9 84.7±3.7 85.4±4.1 65.9±19.8 85.5±3.8 87.0±3.0 78.0±6.0 76.2±7.3 81.8±6.6 77.1±10.1 74.9±8.3 76.6±5.4 83.7±3.3 91.5±2.8 91.7±2.1 78.6±3.0 68.4± 10.0 0.21
87.4±2.5 88.7±2.2 88.1±4.4 75.6±4.4 69.9±15.6 59.0±15.4 57.9±18.6 40.5±17.7 85.9±3.2 85.6±2.1 61.9±14.4 84.9±5.2 87.2±3.4 80.8±5.0 79.6±5.6 83.1±4.7 78.2±9.8 72.0±8.4 74.2±5.6 82.9±3.5 91.5±2.9 92.0±1.8 77.6±4.1 65.7 ± 12.1 87.4±2.5 88.7±2.2 88.1±4.4 75.6±4.4 69.9±15.6 59.0±15.4 57.9±18.6 40.5±17.7 85.9±3.2 85.6±2.1 61.9±14.4 84.9±5.2 87.2±3.4 80.8±5.0 79.6±5.6 83.1±4.7 78.2±9.8 72.0±8.4 74.2±5.6 82.9±3.5 91.5±2.9 92.0±1.8 77.6±4.1 65.7 ± 12.1 0.19
3D-Unet-SE 80.8±2.7 49.9±18.4 50.1±19.9 7.1±13.4 7.3±19.4 48.2±9.5 46.0±15.8 40.7±10.5 72.8±4.7 72.3±6.3 54.2±14.6 57.1±12.2 61.0±12.9 65.2±11.0 64.1±10.8 56.4±12.8 54.2±14.9 54.2±4.0 56.7±15.8 46.5±21.6 45.6±17.8 47.0±22.3 51.7±9.5 41.6±13.1 3D-Unet-SE 80.8±2.7 49.9±18.4 50.1±19.9 7.1±13.4 7.3±19.4 48.2±9.5 46.0±15.8 40.7±10.5 72.8±4.7 72.3±6.3 54.2±14.6 57.1±12.2 61.0±12.9 65.2±11.0 64.1±10.8 56.4±12.8 54.2±14.9 54.2±4.0 56.7±15.8 46.5±21.6 45.6±17.8 47.0±22.3 51.7±9.5 41.6±13.1 0.17
8 3D-SepNet (ours) 8 3D-SepNet (ours) 0.79
2.79±0.27 2.47±0.31 2.56±0.20 2.37±0.38 2.47±0.45 2.90±0.78 2.93±0.77 3.83±0.87 4.31±0.85 4.38±0.77 2.92±1.01 3.71±0.64 3.49±0.66 2.85±0.62 2.77±0.45 3.33±0.87 3.54±1.24 2.85±0.70 2.63±0.51 2.78±0.33 2.81±0.45 2.70±0.40 3.06±0.24 2.88±0.67 2.79±0.27 2.47±0.31 2.56±0.20 2.37±0.38 2.47±0.45 2.90±0.78 2.93±0.77 3.83±0.87 4.31±0.85 4.38±0.77 2.92±1.01 3.71±0.64 3.49±0.66 2.85±0.62 2.77±0.45 3.33±0.87 3.54±1.24 2.85±0.70 2.63±0.51 2.78±0.33 2.81±0.45 2.70±0.40 3.06±0.24 2.88±0.67 0.17
95%HD (mean±std mm)↓ 3D-Unet-Res 3.5±1.3 2.45±0.55 2.62±0.48 1.99±1.48 1.85±0.93 3.76±2.0 3.74±2.02 4.69±1.57 6.62±1.66 7.06±1.19 2.9±0.82 4.09±1.73 3.31±0.9 3.1±0.7 3.06±1.13 4.42±2.9 4.01±1.85 3.47±0.92 3.05±0.13 2.06±0.58 3.07±1.13 2.75±0.57 3.53±0.52 3.14±1.3 95%HD (mean±std mm)↓ 3D-Unet-Res 3.5±1.3 2.45±0.55 2.62±0.48 1.99±1.48 1.85±0.93 3.76±2.0 3.74±2.02 4.69±1.57 6.62±1.66 7.06±1.19 2.9±0.82 4.09±1.73 3.31±0.9 3.1±0.7 3.06±1.13 4.42±2.9 4.01±1.85 3.47±0.92 3.05±0.13 2.06±0.58 3.07±1.13 2.75±0.57 3.53±0.52 3.14±1.3 0.22
3D-UNet 3.30±0.28 2.36±0.25 2.42±0.38 2.44±0.40 2.57±0.64 2.89±0.74 3.33±1.02 4.28±1.10 4.80±1.07 4.83±1.28 3.01±1.25 3.96±0.69 3.91±1.44 2.90±0.79 3.01±0.67 4.40±2.01 3.51±0.84 3.02±0.69 2.67±0.39 2.73±0.41 2.54±0.45 2.61±0.45 3.25±0.28 3.05±0.83 3D-UNet 3.30±0.28 2.36±0.25 2.42±0.38 2.44±0.40 2.57±0.64 2.89±0.74 3.33±1.02 4.28±1.10 4.80±1.07 4.83±1.28 3.01±1.25 3.96±0.69 3.91±1.44 2.90±0.79 3.01±0.67 4.40±2.01 3.51±0.84 3.02±0.69 2.67±0.39 2.73±0.41 2.54±0.45 2.61±0.45 3.25±0.28 3.05±0.83 0.18
3D-Unet-SE 4.08±0.48 8.43±3.13 8.17±3.33 10.09±5.71 9.56±3.66 5.47±1.12 5.68±1.85 3.99±0.65 8.81±1.55 8.92±1.45 3.14±0.77 8.75±1.47 8.24±2.12 4.33±1.17 4.71±1.65 8.46±3.4 7.51±1.87 5.87±0.87 5.21±1.87 6.87±2.73 7.25±1.69 7.46±2.13 6.86±1.29 5.5±2.07 3D-Unet-SE 4.08±0.48 8.43±3.13 8.17±3.33 10.09±5.71 9.56±3.66 5.47±1.12 5.68±1.85 3.99±0.65 8.81±1.55 8.92±1.45 3.14±0.77 8.75±1.47 8.24±2.12 4.33±1.17 4.71±1.65 8.46±3.4 7.51±1.87 5.87±0.87 5.21±1.87 6.87±2.73 7.25±1.69 7.46±2.13 6.86±1.29 5.5±2.07 0.17
(a) Axial View(b) Coronal View (c) Sagittal ViewBrain StemTemporal Lobes LeftPituitaryParotid Gland LeftLeft Temporomandibular JointRight Temporomandibular JointInner Ear RightMiddle Ear LeftOptic ChiasmaTemporal Lobes RightParotid Gland RightInner Ear LeftMiddle Ear RightSpinal CordGround Truth𝐴𝑇𝐻 − 𝐿𝐸𝑥𝑝+NLF1𝐴𝑇𝐻 − 𝐿𝐸𝑥𝑝+NLF2𝐿𝐸𝑥𝑝+SLF1𝐷𝑖𝑐𝑒 𝐿𝑜𝑠𝑠+SLF1𝐴𝑇𝐻 − 𝐿𝐸𝑥+SLF1 (Ours) (a)Axial View(b)Sagittal ViewBrain StemTemporal LobesleftPituitaryPa rotid Gland LeftLeft Temporomandibular JointRight Temporomandibular JointInner Ear RightMiddle EarOptic ChiasmaTemporal Lobes RightParotid Gland RightInner EarleftMiddle Ear RightSpinal CordGround TruthATH − LExp+NLF1ATH − LExp+NLF2LExp+SLF1Dice Loss+SLF1ATH − LEx+SLF1ATH (Ours) 0.93
英語(論文から抽出)日本語訳スコア
Figure 8: Example of averaged activation maps of different networks. 図8: 異なるネットワークの平均活性化マップの例。 0.84
We map the value of each map m from [mmin, mmax] to [0, 1] for visualization, where mmin and mmax are the min and max values of origin map m. The red arrows in three views point out that for small organs in large inter-slice, 3D-SepNet is actually benefitted from our separable convolutions and could draw more accurate boundary than the other compared networks. 各マップ m の値を [mmin, mmax] から [0, 1] にマップします。ここでは、mmin と mmax がオリジンマップ m の最小値と最大値です。3つのビューの赤い矢印は、大きなスライス内の小器官の場合、3D-SepNet は実際には分離可能な畳み込みから恩恵を受けており、他の比較ネットワークよりも正確な境界を描くことができることを指摘しています。 0.74
SepNet and mainly two groups: (1) 3 intensity transform functions: SLF1, NLF1 and NLF2 with AT H(α = 0.5) − LExp; (2) 3 different loss functions: AT H(α = 0.5) − LExp, LExp, Dice loss with SLF1 transform to investigate the effectiveness of our AT H−LExp. SepNetおよび主に2つのグループ:(1) 3つの強度変換関数: AT H(α = 0.5) − LExpを持つSLF1、NLF1およびNLF2。(2) 3つの異なる損失関数: AT H(α = 0.5) − LExp、LExp、SLF1変換によるダイス損失。 0.77
As shown in Table 1, our SLF1 exceeds NLF1/2 at 14 OARs in terms of DSC and 95%HD. 表1に示すように、slf1 は dsc と 95%hd の点で 14 oar において nlf1/2 を超えている。 0.56
Due to better visibility of both bones and soft issues obtained by SLFs, model trained with SLFs could learn robust features to determine multiple OARs. SLFによって得られた骨と軟質の問題をよりよく可視化するため、SLFで訓練されたモデルは複数のOARを決定する堅牢な特徴を学習することができた。 0.59
In contrast, models taking NLFs as input achieve lower average performance because NLFs cannot differentiate multiple OARs well. 対照的に、NLFを入力とするモデルは、複数のOARをよく区別できないため、平均性能が低い。 0.60
Our SLF1 improves Dice by 0.6% and 0.7% compared with traditional method NLF1/2 in average, which is a convincing result as this task contains 22 organs. 我々のslf1は従来のnlf1/2法と比較してdiceを0.6%改善し、0.7%改善した。 0.50
It could be observed that AT H − LExp outperforms LExp in most organs like brain stem, optical nerves and inner ear, which verifies that AT H − LExp will force the network to pay more attention to hard voxels compared with LExp while still preserve the ability to distinguish the small organs. AT H − LExp が脳幹、光神経、内耳などのほとんどの臓器の LExp を上回っていることは、AT H − LExp が LExp と比較して硬いボキセルにもっと注意を払うようにネットワークを強制し、小さな器官を区別する能力を維持します。 0.71
For qualitative comparison, Fig. 質的な比較のために、図。 0.63
7 shows a visual comparison of segmentation results based on above-mentioned five models. 7は,上述した5モデルに基づくセグメンテーション結果の視覚的比較を示す。 0.80
It is easy to observe that in all views, the models trained with a wide intensity window of NLF2 failed to recognize the accurate border of brain stem, right temporomandibular joint and left parotid gland due to the low contrast of transformed images. すべての見解において、nlf2の広い強度の窓で訓練されたモデルは、変換画像のコントラストが低いため、脳幹、右顎関節、左耳下腺の正確な境界を認識できなかったことは容易に観察できる。 0.76
In the contrary, the model trained with SLF1 could distinguish these OARs boundaries effectively, demonstrating the superiority of our proposed intensity transform based on SLFs. それどころか、SLF1で訓練されたモデルはこれらのOAR境界を効果的に区別することができ、SLFに基づいて提案された強度変換の優位性を示す。
訳抜け防止モード: 逆に、SLF1で訓練されたモデルはこれらのOARの境界を効果的に区別することができる。 SLFに基づいて提案した強度変換の優位性を示す。
0.58
It is also visible that for the hard voxels (near the boundaries of OARs) in easy organs like middle ears and brain stem, segmentations based on LExp and Dice loss are not very accurate, which is in line with our inference in Section 3.3 that the LExp may restrain the gradients of hard voxels in easy region. また、中耳や脳幹などの簡便な器官における硬質ボキセル(OARの境界付近)では、LExpとDiceの損失に基づくセグメンテーションは非常に正確ではなく、LExpが簡便な領域における硬質ボキセルの勾配を抑制する可能性があるというセクション3.3の推論と一致していることも明らかである。 0.73
In contrast, AT H − LExp makes the network focus on these voxels and provides more accurate results. 対照的に、AT H − LExp はネットワークをこれらのボクセルに集中させ、より正確な結果を提供する。
訳抜け防止モード: 対照的にAT H-LExpはネットワークをこれらのボクセルに集中させる より正確な結果が得られます
0.71
4.1.2. Comparison between Networks 4.1.2. ネットワークの比較 0.64
We also compare our 3D-SepNet with three variants of 3DUNet: original one, SE block added and residual connection added. また、3D-SepNetを元の3DUNet、SEブロックの追加、残留接続の追加の3つのバリエーションと比較します。 0.65
As shown in Table 2, with the same loss function and intensity transform function, 3D-UNet variants have a lower performance than 3D-SepNet in small flat organs containing: lens, optical nerves, optical chiasma, pituitary and inner ears that are only present in few slices. 表2に示すように、同じ損失機能と強度変換機能を備えた3D-UNETバリアントは、少数のスライスにしか存在しないレンズ、光学神経、光学キマスマ、下垂体および内耳を含む小さなフラット臓器の3D-SepNetよりも性能が低い。 0.75
The reason could be that after each inter-slice convolution, the boundary along throughplane direction will be blurred. その理由は、各スライス間の畳み込みの後、平面方向に沿った境界がぼやけてしまうからです。 0.61
For these flat organs, blurring the through-plane boundary can lead to more reduced segmentation accuracy than those organs that span a larger number of slices where the blurred boundary region occupy a relatively small volume. これらの平坦な器官では、スループレーン境界のぼやけは、ぼやけた境界領域が比較的小さい体積を占めるスライスの大きい数にまたがる器官よりも、セグメント化の精度が低下する可能性がある。 0.70
Thus, our network is more friendly to flat organs than other 3D-UNet versions. したがって、我々のネットワークは他の3D-UNetバージョンよりもフラットな臓器に親しみやすい。 0.64
To illustrate this point, for each network, we output the activation maps before the last 1×1 convolution averaged by channel numbers. この点を説明するために、各ネットワークに対して、チャネル番号で平均される最後の1×1畳み込みの前にアクティベーションマップを出力します。 0.67
We map the value of each map m from [mmin, mmax] to [0, 1] for visualization, where mmin and mmax are the min and max values of origin map m. 可視化のために各写像 m の値を [mmin, mmax] から [0, 1] にマップし、min と mmax は原写像 m の min と max の値である。 0.78
9 3D-SepNet (Ours) Image and label3D-UNet3D-Unet- Res3D-Unet-SEAxialSa gittalCoronalOptic ChiasmaEye LeftOptic Nerve RightOptic Nerve LeftEye RightParotid Gland LeftParotid Gland Right01 9 3D-SepNet (Ours) Image and label3D-UNet3D-Unet- Res3D-SEAxialSagitta lCoronalOptic ChiasmaEyeleftOptic rightOptic Nerve LeftEye RightParotid Gland leftParotid Gland Right01 0.72
英語(論文から抽出)日本語訳スコア
Figure 9: Quantitative comparison of model ensemble with single models for segmentation of OARs. 図9:OARのセグメンテーションのための単一モデルとモデルアンサンブルの定量的比較。 0.82
All models are based on 3D-SepNet. 全てのモデルは3D-SepNetに基づいている。 0.60
Model1/2/3 are trained with AT H(α = 0.5) − LExp and SLF1/2/3 respectively and Model4/5/6 are trained with AT H(α = 1) − LExp and SLF1/2/3 respectively. Model1/2/3 はそれぞれ AT H(α = 0.5) − LExp と SLF1/2/3 で、Model4/5/6 はそれぞれ AT H(α = 1) − LExp と SLF1/2/3 で訓練される。 0.64
Figure 10: Structure-level uncertainty in terms of VVC of OARs in the segmentation result. 図10: セグメンテーション結果におけるOARのVVCにおける構造レベルの不確実性。 0.76
Each VVC is from 6 models used for ensemble and averaged within local test dataset. 各vvcは、アンサンブルに使用される6つのモデルからなり、ローカルテストデータセットで平均化される。 0.58
As presented in Fig. 8, the averaged activation maps from 3DSepNet show high response in small organs, e.g., fitting well to the optic nerves boundary especially in sagittal and coronal views. 図に示すように。 8の、3DSepNetからの平均的な活性化マップは小さい器官で高い応答を示します、例えば、特に足指および冠状図の光学神経の境界によく合います。 0.72
In contrast, shape and boundary for the same organs are unclear in the averaged activation maps of other counterparts. 対照的に、同じ器官の形状と境界は他の同等の平均的な活性化写像では不明瞭である。 0.62
What’s more, in Table 2, it could also be observed that 3D-UNet and 3D-UNet-Res achieve similar performance with 3D-SepNet in organs with large scales in through-plane direction, like spinal cord, mandible, parotid gland and mandible. さらに、Table 2では、3D-UNetと3D-UNet-Resが、脊髄、下顎、耳下腺、下顎など、超平面方向の臓器で3D-SepNetと同じようなパフォーマンスを達成することも観察できる。 0.69
With about 1/3 of the parameters of 3D-UNet, our 3D-SepNet achieved prominent improvement in both DSC and 95%HD averagely with the same setting for training, demonstrating the redundancy of usual 3D convolution and that our spatially separable convolution method could deal with anisotropic images more effectively. 3d-unetのパラメータの約1/3で,dscと95%hdの両方において,平均的にトレーニング条件が同じで著明な改善を達成し,通常の3d畳み込みの冗長性を示し,空間分離可能な畳み込み手法が異方性画像をより効果的に扱えることを示した。 0.68
4.1.3. Ensemble and Uncertainty Estimation Results 4.1.3. アンサンブルと不確かさ推定結果 0.61
Section 4.1.1 shows that it is difficult for a single intensity transform function and a single loss function to achieve the best performance for all OARs, and different SLFs and loss functions are complementary to each other. 第4.1.1節は、1つの強度変換関数と1つの損失関数が全てのoarの最高の性能を達成することが困難であり、異なるslfと損失関数が相補的であることを示す。 0.78
Therefore, we use an ensemble of them for more robust segmentation. したがって、より堅牢なセグメンテーションのためにこれらのアンサンブルを使用する。 0.50
Our ensemble is based on 6 trained models, containing the combination of three SLFs with loss functions AT H − LExp of α = 0.5 and 我々のアンサンブルは6つの訓練されたモデルに基づいており、3つのSLFと損失関数AT H − LExp of α = 0.5との組み合わせを含んでいる。 0.64
1.0, respectively. Fig. それぞれ1.0。 フィギュア。 0.63
9 shows a quantitative comparison of six models and their ensemble for segmentation of OARs. 9は、OARのセグメンテーションのための6つのモデルとそのアンサンブルの定量的比較を示しています。 0.56
It could be observed that the model ensemble improved the average DSC by 1% for all the OARs and by around 5% for small organs such as the lens, the optical chiasma and the pituitary. モデルアンサンブルは、すべてのOARに対して平均DSCを1%改善し、レンズ、光学キズマ、下垂体などの小器官では約5%改善した。
訳抜け防止モード: モデルアンサンブルは、すべてのOARに対して平均DSCを1パーセント改善した。 そしてレンズ、光学chiasmaおよび下垂体のような小さい器官のためのおよそ5%。
0.60
This demonstrates that our method to take advantage of different complementary intensity transform functions and loss functions effectively improves the segmentation robustness. これにより, 異なる相補的な強度変換関数と損失関数を利用する手法が, セグメンテーションの堅牢性を効果的に向上することを示す。 0.70
As we estimated the voxel-wise uncertainty based on segmentation labels obtained by 6 models using Eq. eqを用いた6モデルによるセグメンテーションラベルに基づくボクセルワイズ不確かさを推定した。 0.69
(11), we observed 6 levels of voxel-wise uncertainty totally: Level1: 0, Level2: 0.451, Level3: 0.637, Level4: 0.693, Level5: 0.8675, Level6: 1.011. レベル1: 0, Level2: 0.451, Level3: 0.637, Level4: 0.693, Level5: 0.8675, Level6: 1.011。 0.70
Fig. 11 shows an example of uncertainty information as a result of our ensemble model. フィギュア。 11は,アンサンブルモデルの結果,不確実性情報の例を示す。 0.61
In each subfigure, the first image shows the ensemble result compared with the ground truth, and the second image shows uncertainty estimation encoded by a color bar, with the yellow voxels having high uncertainty and purple voxels having low uncertainty. 各副図において、第1の画像は基底真理と比較してアンサンブル結果を示し、第2の画像は色棒で符号化された不確かさの推定を示し、黄色ボクセルは不確実度が高く、紫ボクセルは不確かさが低い。 0.58
It could be observed that most of the uncertain segmentation belongs to the soft issues and locates near the border of OARs. 不確実なセグメンテーションの大部分は、OARs境界付近のソフトな問題と場所に属することが観察できる。 0.62
What’s more, the red arrows in Fig. しかも、赤い矢印は下図にある。 0.48
11 point out the the overlap between highly uncertain regions and mis-segmented areas, showing the uncertainty is highly related to segmentation error. 11) 不確定領域と誤測領域の重なりを指摘し, 不確実性はセグメンテーション誤差と強く関連していることを示した。 0.65
We also calculated voxel-wise average error rate at each un- また,各unにおけるボクセル平均誤差率を算出した。 0.55
10 50556065707580859095 DSC (mean %)EnsembleModel1Mode l2Model3Model4Model5 Model605101520VVC (mean%)05101520VVC (mean%) 10 50556065757580859095 DSC (平均%)EnsembleModel1Mode l2Model4Model5Model5 101520VVC (平均%)05101520VVC (平均%) 0.73
英語(論文から抽出)日本語訳スコア
Figure 11: An example of our segmentation uncertainty estimation, encoded by color bar in the left top corner, with the yellow voxels having high uncertainty values and purple voxels having low uncertainty. 図11: 左上隅のカラーバーでエンコードされたセグメンテーションの不確実性評価の例で, 黄色のボクセルは高い不確実性値を持ち, 紫のボクセルは低い不確実性を示す。 0.69
The left figure in each sub-figure is our ensemble segmentation result. 各部分図の左図は、我々のアンサンブルセグメンテーション結果である。 0.65
The red arrows point out the major overlap between highly uncertain region and mis-segmentation. 赤い矢印は、非常に不確実な地域と誤解の重なり合いを指摘する。 0.58
Figure 12: Statistics of segmentation error and voxel-wise uncertainty. 図12: セグメンテーションエラーとvoxel-wise uncertaintyの統計。 0.86
(a-c) voxel-wise prediction error rates at different uncertainty levels for the whole image, the predicted background region and the predicted OARs region, respectively. (a-c)voxel-wise prediction error rate at different uncertainty level for all image, the prediction background region and predict oars region。 0.74
(d-f) Distribution of uncertainty levels in all mis-segmented region, under-segmented region, and over-segmented region, respectively. (d-f) 過分割領域,過分割領域,過分割領域における不確実度の分布
訳抜け防止モード: (d - f)全mis-segmented領域における不確かさレベル分布 under - segmented region および over - segmented region それぞれ。
0.81
With 6 levels of uncertainty totally: Level1: 0, Level2: 0.451, Level3: 0.637, Level4: 0.693, Level5: 0.8675, Level6: 1.011. レベル1: 0、レベル2: 0.451、レベル3: 0.637、レベル4: 0.693、レベル5: 0.8675、レベル6: 1.011。 0.77
certainty level based on different regions: 1) the entire image, 2) predicted background region, and 3) the predicted foreground region of OARs. 異なる領域に基づく確実性レベル:1) 画像全体、2) 予測された背景領域、3) 予測されたoarの前景領域。
訳抜け防止モード: 異なる領域に基づく確実性レベル : 1 )全体像 2 ) の背景領域が予測され, 3 ) OARの前景領域が予測された。
0.81
From the results shown in Fig. 図に示した結果から。 0.67
12 (a, b), it could be observed that for regions with uncertainty Level1 (i.e., all the models obtained the same result), the average error rate is close to 0 for whole image area and the predicted background area. 12 (a, b) では、不確実性レベル1の領域(すなわち、すべてのモデルが同じ結果を得た)では、画像全体と予測された背景領域の平均誤差率は0に近いことが観察できた。 0.81
It is mainly due to the large amount of easyto-recognize voxels in the background. 主に、背景に容易に認識できるボクセルが大量にあるためである。 0.63
For the predicted OARs area that contains all over-segmented voxels, the average error rate in regions with uncertainty Level1 is much higher and reaches nearly 20%, as shown in Fig. オーバーセグメンテーションされたボクセルを含む予測されたオールズ領域では、不確実性レベル1の領域の平均誤差率は、図に示すように20%近くである。 0.76
12 (c). With the increase of uncertainty, the results have a steep raise of error rate in all three types of areas. 12 (c)。 不確実性が高まるにつれて、結果は3つのタイプすべてにおいてエラー率の急上昇をもたらす。 0.71
In predicted OARs area, the voxel-wise average error rates for uncertainty Level {2-6} are above 65% while are mainly less than 35% for uncertainty Level {2-4} in predicted background area. 予測されたoars領域では、不確かさレベル {2-6} に対するvoxel-wise平均誤差率は65%以上であり、予測された背景領域における不確かさレベル {2-4} の35%未満である。 0.69
It indicates that uncertain region in predicted OARs area is more likely to be mis-segmentation and worth more attention. 予測されたオールズ地域の不確かさは、誤ったセグメンテーションであり、より多くの注意に値する可能性が高いことを示している。 0.44
What’s more, we also calculate the proportion of voxels belonging to each uncertainty level in mis-segmentation for all three types of areas, as shown in Fig. さらに、図に示すように、各不確実性レベルに属するボクセルの割合を、すべての3つのタイプの領域の誤ったセグメンテーションで計算する。 0.68
12 (d, e, f). 12 (d, e, f)。 0.80
It could be observed that the nearly half of voxels in the mis-segmented regions have uncertainty levels between 2 to 6. 誤解された領域のボクセルのほぼ半分が2から6の間の不確実性レベルにあることが観察できる。 0.69
Therefore, for both predicted background and OARs area, finding and correcting mis-segmented voxels in uncertain region has a large potential for improving the prediction result. したがって, 予測背景領域とOAR領域の両方において, 不確実領域における不正分離ボクセルの発見と修正は, 予測結果を改善する大きな可能性を秘めている。 0.67
For evaluation of structure-wise uncertainty, we investigated the relationship between VVC and segmentation accuracy measured by DSC. 構造的不確実性評価のために,DSCによるVVCとセグメンテーション精度の関係を検討した。 0.69
We calculate VVC for each OAR based on the ensemble of six models and compute the average VVC for each OAR with our local test dataset, as shown in Fig. 6つのモデルのアンサンブルに基づいて各OARのVVCを計算し、図に示すように、各OARの平均VVCをローカルテストデータセットで計算します。 0.77
10. From Fig. 9 and Fig. 10. 図から。 9およびFig。 0.73
10, it can be observed that the left optical nerve has a high structure-level uncertainty with low segmentation accuracy. 10) 左光神経は、セグメンテーション精度が低く、構造レベルの不確かさが高いことが観察できる。 0.72
What’s more, we show the joint distribution of average VVC and DSC of ensemble results in Fig. さらに、Figでは平均的なVVCとDSCのアンサンブル結果の同時分布も示しています。 0.59
13, where the fitted line shows that DSC tends to be smaller when VVC grows. 13では、VVCが大きくなるとDSCが小さくなる傾向が見られた。 0.66
11 (a) Axial View(b) Coronal View(c) Sagittal View100.50.34%48.93% 52.75%52.75%61.31%61 .47%Level1Level2Leve l3Level4Level5Level6 Error RateUncertainty Level(a) Whole image area19.17%71.10%75.2 6%74.90%70.30%69.90% Level1Level2Level3Le vel4Level5Level6Erro r RateUncertainty Level(b) Predicted or labeled OARs areaLevel152%Level22 1%Level318%Level49%L evel50.10%Level60.16 %Proportion of Under-segmentation(e ) Under-segmented region15.83%65.15%69 .46%68.54%66.38%65.2 1%Level1Level2Level3 Level4Level5Level6Er ror RateUncertainty Level(c) Predicted OARs areaLevel157%Level22 0%Level316%Level47%L evel50.12%0.17%Level 6Proportion of Over-segmentation(f) Over-segmented region0.07%26.30%29. 80%31.64%39.15%48.69 %Level1Level2Level3L evel4Level5Level6Err or RateUncertainty Level(b) Predicted background areaLevel156%Level22 0%Level316%Level48%L evel50.11%Level60.16 %Proportion of Over-and Under-segmentation(d ) Mis-segmented region 11 (a) Axial View(b) Coronal View(c) Sagittal View100.50.34%48.93% 52.75%52.75%61.31%61 .47%Level1Level2Leve l3Level4Level5Level6 Error RateUncertainty Level(a) Whole image area19.17%71.10%75.2 6%74.90%70.30%69.90% Level1Level2Level3Le vel4Level5Level6Erro r RateUncertainty Level(b) Predicted or labeled OARs areaLevel152%Level22 1%Level318%Level49%L evel50.10%Level60.16 %Proportion of Under-segmentation(e ) Under-segmented region15.83%65.15%69 .46%68.54%66.38%65.2 1%Level1Level2Level3 Level4Level5Level6Er ror RateUncertainty Level(c) Predicted OARs areaLevel157%Level22 0%Level316%Level47%L evel50.12%0.17%Level 6Proportion of Over-segmentation(f) Over-segmented region0.07%26.30%29. 80%31.64%39.15%48.69 %Level1Level2Level3L evel4Level5Level6Err or RateUncertainty Level(b) Predicted background areaLevel156%Level22 0%Level316%Level48%L evel50.11%Level60.16 %Proportion of Over-and Under-segmentation(d ) Mis-segmented region 0.73
英語(論文から抽出)日本語訳スコア
Table 3: Results of the mixed HAN OARs dataset of different loss functions and transform methods (DSC and 95%HD (mm)), based on 3D-SepNet. 表3: 3D-SepNetに基づく異なる損失関数と変換法(DSCおよび95%HD(mm))の混合HAN OARデータセットの結果。 0.81
DSC (mean±std %)↑ DSC (平均±std %)。 0.82
95%HD (mean±std mm)↓ 95%HD(平均±std mm)。 0.88
NLF1 4.04±1.58 9.6±18.33 8.81±20.4 4.98±4.01 8.42±14.91 8.36±19.22 5.06±2.36 7.04±10.28 NLF1 4.04±1.58 9.6±18.33 8.81±20.4 4.98±4.01 8.42±14.91 8.36±19.22 5.06±2.36 7.04±10.28 0.20
NLF2 ATH − LExp (ours) 3.73±1.57 10.38±17.52 6.0±16.09 6.12±10.22 6.58±13.79 6.77±11.1 7.76±17.64 6.76±12.11 NLF2 ATH − LExp (ours) 3.73±1.57 10.38±17.52 6.0±16.09 6.12±10.22 6.58±13.79 6.77±11.1 7.76±17.64 6.76±12.11 0.29
3.76±1.47 10.3±18.17 6.54±19.14 4.43±3.48 4.22±2.5 6.74±12.53 4.85±2.39 5.83±7.18 3.76±1.47 10.3±18.17 6.54±19.14 4.43±3.48 4.22±2.5 6.74±12.53 4.85±2.39 5.83±7.18 0.19
LExp SLF1 (ours) 5.48±1.98 10.59±19.26 6.77±14.83 4.68±3.74 8.05±22.62 5.81±3.42 5.14±2.27 6.65±8.48 LExp SLF1 (ours) 5.48±1.98 10.59±19.26 6.77±14.83 4.68±3.74 8.05±22.62 5.81±3.42 5.14±2.27 6.65±8.48 0.55
DSC Loss 4.09±1.75 9.92±18.71 6.58±15.94 4.26±3.13 7.39±17.41 8.51±17.9 5.62±2.86 6.62±10.19 DSC Loss 4.09±1.75 9.92±18.71 6.58±15.94 4.26±3.13 7.39±17.41 8.51±17.9 5.62±2.86 6.62±10.19 0.22
Metric Transform Loss メートル法 変容 損失 0.59
Brain Stem Opt Chiasma Brain Stem Opt Chiasma 0.85
Mandible Opt Nerve R Opt Nerve L 下顎 Opt Nerve R Opt Nerve L 0.59
Parotid Gland L Parotid Gland R Parotid Gland L Parotid Gland R 0.85
Average ATH − LExp (ours) 平均 ATH − LExp (ours) 0.81
NLF1 86.6±3.1 29.6±23.6 87.6±5.8 62.6±12.1 59.8±12.0 83.5±9.5 84.7±4.6 70.6±6.7 NLF1 86.6±3.1 29.6±23.6 87.6±5.8 62.6±12.1 59.8±12.0 83.5±9.5 84.7±4.6 70.6±6.7 0.20
NLF2 87.1±3.1 28.3±24.0 90.1±4.5 60.9±13.1 61.1±11.4 84.1±7.6 84.4±5.5 70.8±6.7 NLF2 87.1±3.1 28.3±24.0 90.1±4.5 60.9±13.1 61.1±11.4 84.1±7.6 84.4±5.5 70.8±6.7 0.20
87.4±2.6 29.0±23.3 90.0±4.2 62.4±13.0 62.1±12.5 84.7±5.7 84.6±4.5 71.5±6.3 87.4±2.6 29.0±23.3 90.0±4.2 62.4±13.0 62.1±12.5 84.7±5.7 84.6±4.5 71.5±6.3 0.19
SLF1 (ours) LExp 84.3±3.9 28.9±24.8 87.8±6.5 63.3±13.0 59.9±13.5 83.0±6.4 83.8±4.4 70.1±6.7 SLF1 (ours) LExp 84.3±3.9 28.9±24.8 87.8±6.5 63.3±13.0 59.9±13.5 83.0±6.4 83.8±4.4 70.1±6.7 0.26
DSC Loss 86.4±3.8 31.0±25.7 89.1±7.2 63.0±12.1 58.0±13.4 82.3±10.7 83.8±4.8 70.5±7.2 dsc損失 86.4±3.8 31.0±25.7 89.1±7.2 63.0±12.1 58.0±13.4 82.3±10.7 83.8±4.8 70.5±7.2 0.21
Joint distribution of DSC and average VVC for each OAR of enFigure 13: semble result. enFigure 13 の各 OAR に対する DSC と平均 VVC の共同分布: センブル結果。 0.78
Each point represents an OAR’s DSC and average VVC. 各ポイントはOARのDSCと平均的なVVCを表す。 0.77
With the increase of VVC, the DSC tends to be smaller. VVCの増加に伴い、DSCは小さくなる傾向にある。 0.72
The number of each point means the order of OAR: 1-6: Brain Stem, Eye L, Eye R, Lens L, Lens R, Opt Nerve L; 7-12: Opt Nerve R, Opt Chiasma, Temporal Lobes L, Temporal Lobes R, Pituitary, Parotid Gland L; 13-18: Parotid Gland R, Inner Ear L, Inner Ear R, Mid Ear L, Mid Ear R, TM Joint L; 19-22: TM Joint R, Spinal Cord, Mandible L, Mandible R. 各ポイントの数はOARの順序を意味します:1-6:脳の茎、目L、目R、レンズL、レンズR、オプトの神経L;7-12:オプトの神経R、オプトのChiasma、一時的なLobes L、一時的なLobes R、Pituitary、Parotid Gland L;13-18:Parotid Gland R、Inner Ear L、Inner Ear R、Mid Ear L、Mid Ear R、TM Joint L;19-22:TM Joint R、Spinal Cord、Mandible L、Mandible R。 0.79
This demonstrates that a high VVC value can indicate inaccurate segmentation well. これは高いVVC値が不正確なセグメンテーションを示すことを示す。 0.67
The three points far below the fitted line are pituitary, optical nerve right and optical chiasma, showing the difficulty of segmenting these OARs. 下垂体、光神経、光学キアスマの3点があり、これらのオールの分割が困難であることを示している。 0.54
4.2. Results of Mixed HAN OAR Dataset 4.2. 混合HAN OARデータセットの結果 0.78
For further investigation, we applied our methods on a mixed dataset of HAN CT scans of 165 patients: 50 from StructSeg 2019, 48 from MICCAI 2015 Head and Neck challenge and 67 patients collected locally. また,本研究では,StructSeg 2019の50例,MICCAI 2015 Head and Neckチャレンジの48例,地元で集められた67例のHAN CTスキャンの混合データセットに,本手法を適用した。
訳抜け防止モード: さらに調査するために,165例のHAN CTスキャンの混合データセットに本手法を適用した : StructSeg 2019,50。 MICCAI 2015の頭部および首の挑戦からの48およびローカル集められる67の患者。
0.78
We segment 7 organs that were annotated in all of them: brain stem, optical chiasma, mandible, optical nerve right/left, parotid gland right/left. 脳幹, 光学キアスマ, 下顎骨, 光神経左右, 耳下腺左右の計7臓器をアノテートした。
訳抜け防止モード: それらすべてに注釈が付けられた7つの器官をセグメント化します。 光学chiasma、下顎、光学神経右/左、耳下腺右/左。
0.66
However, as shown in Fig. ただし、図に示すように。 0.73
14, the labeling style of each dataset is largely different especially in small organs containing optical chiasma and nerves, which makes it a challenging task. 14) 各データセットのラベリングスタイルは、特に光学キアスマと神経を含む小器官で大きく異なり、困難な課題となっている。 0.72
The StructSeg 2019 and our locally collected dataset had an inter-slice spacing around 3 mm and intra-slice spacing around 1 mm. StructSeg 2019と地元で収集されたデータセットは、スライス間間隔が約3 mm、スライス内間隔が約1 mmでした。 0.58
The MICCAI 2015 Head and Neck challenge dataset had an intra-slice spacing in the range of 0.76 mm to 1.27 mm, and inter-slice spacing from 1.25 mm to 3 mm. MICCAI 2015 Head and Neckチャレンジデータセットは0.76 mmから1.27 mmの範囲のスライス内間隔を持ち、スライス間間隔は1.25 mmから3 mmであった。 0.79
These CT scans were interpolated to an output voxel size of 3×1×1mm for consistency, and randomly split to 127 for training and 38 for testing. これらのCTスキャンは、一貫性のために3×1×1mmの出力ボクセルサイズに補間され、トレーニングには127、テストには38にランダムに分割された。
訳抜け防止モード: これらのCTは3×1×1mmの出力ボクセルサイズに補間された。 ランダムにトレーニングは127、テストは38に分けました。
0.62
Table 3 compares the results of different loss functions and intensity transformation functions based on 3D-SepNet. 表3は、異なる損失関数と3D-SepNetに基づく強度変換関数の結果を比較する。 0.76
Due to 12 Figure 14: Examples of labeling style from three datasets. 故に 12 図14: 3つのデータセットからのラベリングスタイルの例。 0.75
The major labeling style differences are pointed out by the red arrows. 主なラベリングスタイルの違いは、赤い矢印によって指摘される。 0.75
the different labeling style of each dataset, it is hard to obtain an ideal model for every patient, leading to unstable performance for small OARs like optical chiasma. 各データセットの異なるラベリングスタイルは、各患者に理想的なモデルを得ることが困難であり、光学キアスマのような小さなオールでは不安定なパフォーマンスをもたらす。 0.77
However, AT H − LExp with S LF still achieves the best DSC and 95%HD, proving the robustness of our methods. しかし,AT H-LExp with S LFは依然として最高のDSCと95%HDを実現し,我々の手法の堅牢性を証明している。 0.69
In addition, Table 4 shows that compared with other three variants 3D-UNet, our 3D-SepNet also achieves prominent improvements of optical chiasma/nerves especially in terms of DSC. さらにTable 4では、他の3種類の3D-UNetと比較して、3D-SepNetは特にDSCにおいて光学的チーズマ/神経の顕著な改善を実現している。 0.56
It further illustrates the applicability of our network to handle small organs. さらに、小さな臓器を扱うネットワークの適用可能性を示しています。 0.63
5. Discussion and Conclusion To segment multiple OARs with different sizes from CT images with low contrast and anisotropic resolution, we propose a novel framework consisting of Segmental Linear Function (SLF)-based intensity transform and a 3D-SepNet with hardvoxel weighting for training. 5. 議論と結論 低コントラスト・異方性分解能のCT画像から異なるサイズで複数のOARを分割するために,SLF(Segmental Linear Function)に基づく強度変換とハードボクセル重み付けによる3D-SepNetからなる新しいフレームワークを提案する。 0.79
For intensity transform, the traditional method of Naive Linear Function (NLF) may not be effective enough because it cannot obtain good visibility for multiple OARs including both soft tissues and bones at the same time. 強度変換の場合、従来のナイーブ線形関数(NLF)の方法は、軟組織と骨の両方を同時に含む複数のOARの良好な可視性を得ることができないため、十分に効果的ではないかもしれません。 0.69
In contrast, our SLF makes multiple OARs have a good visibility at the same time. 対照的に、SLFは複数のOARを同時によく見えるものにしています。 0.62
Considering the clinical fact that radiologists would view scans under different window widths/levels to better delineate different organs, we also applied multiple SLFs to better segment different tissues. 放射線科医が異なる窓幅・レベルでスキャンを視認して異なる臓器をより精査できるという臨床的事実を考慮し,複数のSLFを用いて異なる組織をよりよく分別した。 0.61
Generally, our SLF for intensity transform is also applicable to other tasks, such as segmentation of multiple organs from thoracic or abdominal CT images [50]. 一般的には,胸部ct画像や腹部ct画像から複数の臓器を分割するなど,強度変換のためのslfも適用可能である[50]。 0.67
To deal with the severe imbalance between large and small OARs, we first used the exponential logarithmic loss (LExp) that weights the OARs by the relative size and class-level segmentation difficulty. 大型と小型のオール間の深刻な不均衡に対処するために,我々はまず,相対的なサイズとクラスレベルのセグメンテーション難易度でオールを重み付ける指数対数損失 (lexp) を用いた。 0.70
However, we found that LExp might limit the performance of CNNs on hard voxels in large or easy OARs. しかし、LExpは、大型または簡単なOARでハードボキセル上のCNNのパフォーマンスを制限する可能性があることを発見しました。 0.57
To solve this problem, we proposed a weighting function to have the network focus on the hard voxels and combined it with この問題を解決するために,ネットワークをハードボクセルに集中させる重み付け関数を提案し,それを組み合わせた。 0.81
4681012141618VVC(%)6 0657075808590DSC(%)1 23456789101112131415 16171819202122(a) StructSeg19(b) MICCAI 15(c) Locally Collected 46810121418VVC(%)606 57075808590DSC(%)123 45678910111212121414 1618 19202122(a)StructSeg 19(b)MICCAI15(c)局所収集 0.88
英語(論文から抽出)日本語訳スコア
Table 4: Quantitative comparison between our 3D-SepNet and 3D-UNet based versions on the mixed HAN OARs dataset. 表4: 混合HAN OARsデータセットに基づく3D-SepNetと3D-UNetの定量的比較。 0.81
These networks were trained with AT H(α = 0.5) − LExp and SLF1. これらのネットワークは AT H(α = 0.5) − LExp と SLF1 で訓練された。 0.73
Metric Network Brain Stem Opt Chiasma Metric Network Brain Stem Opt Chiasma 0.85
Mandible Opt Nerve R Opt Nerve L 下顎 Opt Nerve R Opt Nerve L 0.59
Parotid Gland L Parotid Gland R Parotid Gland L Parotid Gland R 0.85
Average 3D-SepNet (ours) 平均 3D-SepNet (ours) 0.76
87.4±2.6 29.0±23.3 90.0±4.2 62.4±13.0 62.1±12.5 84.7±5.7 84.6±4.5 71.5±6.3 87.4±2.6 29.0±23.3 90.0±4.2 62.4±13.0 62.1±12.5 84.7±5.7 84.6±4.5 71.5±6.3 0.19
DSC (mean±std %)↑ 3D-UNet 86.7±3.4 21.8±21.9 89.5±6.5 61.8±13.3 59.6±12.4 83.8±6.9 84.9±4.5 69.7±6.1 dsc 86.7±3.4 21.8±21.9 89.5±6.5 61.8±13.3 59.6±12.4 83.8±6.9 84.9±4.5 69.7±6.1 0.29
3D-UNet-Res 85.7±3.8 22.9±22.6 89.8±5.4 61.8±10.3 59.9±11.5 84.2±6.3 84.4±4.3 69.8±5.8 3D-UNet-Res 85.7±3.8 22.9±22.6 89.8±5.4 61.8±10.3 59.9±11.5 84.2±6.3 84.4±4.3 69.8±5.8 0.19
3D-Unet-SE 86.1±3.7 24.2±23.4 89.4±5.1 59.9±12.4 58.4±11.6 83.6±7.1 84.2±4.6 69.4±6.2 3D-Unet-SE 86.1±3.7 24.2±23.4 89.4±5.1 59.9±12.4 58.4±11.6 83.6±7.1 84.2±4.6 69.4±6.2 0.19
3D-SepNet (ours) 3D-SepNet (ours) 0.74
3.76±1.47 7.36±6.62 6.54±19.14 3.82±3.42 3.59±2.5 5.99±11.52 4.85±2.39 5.12±6.72 3.76±1.47 7.36±6.62 6.54±19.14 3.82±3.42 3.59±2.5 5.99±11.52 4.85±2.39 5.12±6.72 0.19
95%HD (mean±std mm)↓ 95%HD(平均±std mm)。 0.88
3D-UNet 3.83±1.56 8.4±4.05 6.26±17.06 4.27±3.12 4.12±2.0 7.15±13.13 7.49±17.61 5.93±7.0 3D-UNet 3.83±1.56 8.4±4.05 6.26±17.06 4.27±3.12 4.12±2.0 7.15±13.13 7.49±17.61 5.93±7.0 0.19
3D-Unet-Res 4.91±1.86 8.35±3.55 5.95±14.75 4.04±2.78 4.06±2.16 6.06±2.81 7.97±12.47 5.90±4.06 3D-Unet-Res 4.91±1.86 8.35±3.55 5.95±14.75 4.04±2.78 4.06±2.16 6.06±2.81 7.97±12.47 5.90±4.06 0.19
3D-Unet-SE 4.03±1.90 7.78±3.41 6.07±15.17 4.15±2.68 4.54±2.27 7.34±3.16 7.71±16.82 5.94±5.08 3D-Unet-SE 4.03±1.90 7.78±3.41 6.07±15.17 4.15±2.68 4.54±2.27 7.34±3.16 7.71±16.82 5.94±5.08 0.19
LExp in our case, named AT H − LExp. LExp は AT H − LExp と命名された。 0.76
As shown in experimental results, the AT H − LExp outperformed the linear DSC loss and LExp for most OARs, like brain stem, eye, lens and parotid gland. 実験結果に示されているように、AT H − LExpは、脳幹、眼、レンズ、耳下腺などのほとんどのOARの線形DSC損失とLExpを上回った。 0.73
With a tunable attention parameter α > 0, we could further control how much the attention is paid to hard regions. 調整可能な注意パラメータ α > 0 で、ハード領域にどれだけ注意が払われているかをさらに制御することができる。 0.61
Our weighting function could also be easily combined with other segmentation loss functions. 重み付け関数は、他のセグメンテーション損失関数と簡単に組み合わせることもできる。 0.64
We validated our framework with extensive experiments in the HAN OAR segmentation task of StructSeg 2019 challenge, and a mixed HAN dataset from three sources. 我々は、StructSeg 2019チャレンジのHAN OARセグメンテーションタスクにおける広範な実験と、3つのソースからの混合HANデータセットでフレームワークを検証した。 0.67
With about 1/3 of the parameters of 3D-UNet, our 3D-SepNet achieved prominent improvement in both DSC and 95%HD with the same setting for training, demonstrating the redundancy of usual 3D convolution and that our spatially separable convolution method could deal with anisotropic images more effectively. 3d-unetのパラメータの約1/3で, dscと95%hdの両方において, トレーニング用と同じ設定で顕著に改善し, 通常の3d畳み込みの冗長性を示し, 空間分離可能な畳み込み法により異方性画像をより効果的に処理できることを示した。 0.70
The experiments found that our 3D-SepNet outperformed 3DUNet for some flat organs, and it is because 3D-UNet contain more inter-slice convolution operations than our 3D-SepNet and will blur through-plane boundaries. 実験の結果、3D-SepNetは平らな臓器では3DUNetより優れており、3D-UNetは3D-SepNetよりもスライス間の畳み込み操作を多く含んでおり、平面内の境界を曖昧にすることがわかった。 0.55
For these flat organs, blurring the through-plane boundaries makes it harder for accurate segmentation. これらの平らな器官では、平面上の境界線をぼかすことは正確なセグメンテーションを難しくする。 0.58
Therefore, using a relatively small number of inter-slice convolution helps to alleviate this problem and obtains better results for organs that are only present in few axial slices. したがって、比較的少数のスライス間畳み込みを用いてこの問題を緩和し、少数の軸スライスにしか存在しない臓器に対してより良い結果が得られる。 0.66
Some other techniques like group-wise [51] and depth separable convolution [52] could also be combined with our method to build more lightweight and efficient networks. グループワイズ[51]や深さ分離可能な畳み込み[52]といった他の手法も,より軽量で効率的なネットワーク構築のための手法と組み合わせることができる。 0.77
Considering that models trained with different loss functions and SLFs obtained the best performance for different OARs, we use an ensemble of these models by a weighted average. 異なる損失関数とslfで訓練されたモデルが異なるオールに対して最高の性能を得たことを考慮し、重み付け平均でこれらのモデルのアンサンブルを使用する。 0.68
Our method won the 3rd place3 in the HAN OAR segmentation task of StructSeg 2019 challenge, and achieved weighted average DSC of 80.52% and 95%HD of 3.043 mm based on the official testing images. 本手法は,StructSeg 2019 チャレンジの HAN OAR セグメンテーションタスクにおいて第3位を獲得し,公式試験画像から平均DSC 80.52%,95%HD 3.043 mm を達成した。 0.79
The leaderboard shows that the difference between our methods and other top-performing methods is not very large in terms of DSC. リーダーボードは、我々の方法と他のトップパフォーマンスメソッドの違いは、DSCではそれほど大きくないことを示している。 0.68
This is mainly because that the learderboard reports the results averaged across a set of 22 organs that is a mixture of easy and hard organs. これは主に、Learderboardは、簡単かつ硬い臓器の混合物である22の臓器のセットで平均された結果を報告するためです。 0.72
We found that UNet could achieve DSC larger than 80% in near 11 of them, which could result in limited room for improvement on these easy organs. UNetは11個近くで80%以上のDSCを達成できたため、これらの容易な臓器の改善の余地は限られていた。 0.62
Therefore, significant improvements in hard organs may not lead to a large improvement on the average result. したがって、硬質臓器の大幅な改善は、平均結果に大きな改善をもたらすことはありません。 0.69
However, it should be noticed that the average DSC of our method is only 0.14% lower than that of the second best per- しかし,本手法の平均dscは,第2次ssc法よりも0.14%低い値に留意すべきである。 0.76
3http://www.structse g-challenge.org/#/, and our team is UESTC 501. 3http://www.structse g-challenge.org/#/ そして私たちのチームはUESTC 501です。 0.57
13 forming method, and is 0.64% and 0.95% higher than those of the 4th and 7th top-performing methods, respectively. 13 成形方法は、それぞれ第4および第7トップパフォーマンス方法よりも0.64%および0.95%高い。 0.83
Further more, to our best knowledge, this is the first work to investigate the uncertainty of HAN OAR segmentation using CNNs. さらに、我々の知る限り、これはCNNを用いたHAN OARセグメンテーションの不確実性を調べる最初の研究である。 0.65
Our results show that there is high correlation between mis-segmentation and high uncertain regions, leading to more informative segmentation outputs that could be used for refinement for more accurate segmentation results and help radiologists during radiotherapy planning. その結果, 誤分類と高不確定領域との相関性が高く, より正確なセグメント化結果の精緻化や放射線治療計画における放射線医の助けとなるような, 有益なセグメンテーションのアウトプットが得られた。 0.69
In the future, it is of interest to further improve the segmentation performance on small organs like optical chiasma and optical nerves, and to leverage the uncertainty information to guide user interactions for refinement in challenging cases. 将来的には、視神経や視神経などの小臓器のセグメンテーション性能をさらに向上させ、不確実性情報を活用してユーザインタラクションを誘導し、課題の解決を図ることが重要である。 0.58
Acknowledgements This work was supported by the National Natural Science 認識 この研究は国立自然科学によって支持され 0.64
Foundations of China [81771921, 61901084] funding. 中国財団 [81771921, 61901084] が出資した。 0.71
References [1] W. I. Wei, J. S. Sham, Nasopharyngeal carcinoma, Lancet 365 (2005) 参考文献 [1] W. I. Wei, J. S. Sham, Nasopharyngeal carcinoma, Lancet 365 (2005) 0.82
2041–2054. 2041–2054. 0.71
[2] E. T. Chang, H.-O. [2] E. T. Chang, H.-O。 0.79
Adami, The enigmatic epidemiology of nasopharyngeal carcinoma, Cancer Epidemiol. Adami, the enigmatic epidemiology of nasopharyngeal carcinoma, Cancer Epidemiol。 0.77
Biomark. Prev 15 (2006) 1765–1777. バイオマーク。 prev 15 (2006) 1765-1777。 0.76
[3] M. A. Hunt, M. J. Zelefsky, S. Wolden, C.-S. Chui, T. LoSasso, K. Rosenzweig, L. Chong, S. V. Spirou, L. Fromme, M. Lumley, et al., Treatment planning and delivery of intensity-modulated radiation therapy for primary nasopharynx cancer, Int. [3]M.A。 Hunt, M.J. Zelefsky, S. Wolden, C.S. Chui, T. LoSasso, K. Rosenzweig, L.Chong, S.V. Spirou, L. Fromme, M. Lumley, など, 原発性鼻咽頭癌に対する強度調節放射線療法の治療計画と提供。 0.81
J. Radiat. Oncol. J. Radiat オンコル。 0.66
Biol. Phys. 49 (2001) 623–632. Biol Phys 49 (2001) 623–632. 0.65
[4] W. Zhu, Y. Huang, L. Zeng, X. Chen, Y. Liu, Z. Qian, N. Du, W. Fan, X. Xie, AnatomyNet: Deep learning for fast and fully automated wholevolume segmentation of head and neck anatomy, Med. W. Zhu, Y. Huang, L. Zeng, X. Chen, Y. Liu, Z. Qian, N. Du, W. Fan, X. Xie, AnatomyNet: 頭頸部解剖の高速かつ完全自動化された全量セグメンテーションのための深層学習。 0.88
Phys. 46 (2019) 576–589. Phys 46 (2019) 576–589. 0.72
[5] Y. Gao, R. Huang, M. Chen, Z. Wang, J. Deng, Y. Chen, Y. Yang, J. Zhang, C. Tao, H. Li, FocusNet: Imbalanced Large and Small Organ Segmentation with an End-to-End Deep Neural Network for Head and Neck CT Images, in: MICCAI, Springer, 2019, pp. 5] Y. Gao, R. Huang, M. Chen, Z. Wang, J. Deng, Y. Chen, Y. Yang, J. Zhang, C. Tao, H. Li, FocusNet: Imbalanced Large and Small Organ Segmentation with a End-to-End Deep Neural Network for Head and Neck CT Images, in: MICCAI, Springer, 2019, pp。 0.97
829–838. [6] K. C. Wong, M. Moradi, H. Tang, T. Syeda-Mahmood, 3D segmentation with exponential logarithmic loss for highly unbalanced object sizes, in: MICCAI, 2018, pp. 829–838. K. C. Wong, M. Moradi, H. Tang, T. Syeda-Mahmood, 3D segmentation with index logarithmic loss for high un Balanced object sizes, in: MICCAI, 2018, pp。 0.81
612–619. [7] S. Nikolov, S. Blackwell, R. Mendes, J. 612–619. 7] S. Nikolov、S. Blackwell、R. Mendes、J。 0.77
De Fauw, C. Meyer, C. Hughes, H. Askham, B. Romera-Paredes, A. Karthikesalingam, C. Chu, et al., Deep learning to achieve clinically applicable segmentation of head and neck anatomy for radiotherapy, arXiv preprint arXiv:1809.04430 (2018). De Fauw, C. Meyer, C. Hughes, H. Askham, B. Romera-Paredes, A. Karthikesalingam, C. Chu, et al., Deep Learning to achieve a Clinically suitable segmentation of head and neck anatomy for radiotherapy, arXiv preprint arXiv:1809.04430 (2018)。 0.90
[8] W. Shi, X. Zhuang, R. Wolz, D. Simon, K. Tung, H. Wang, S. Ourselin, P. Edwards, R. Razavi, D. Rueckert, A multi-image graph cut approach for cardiac image segmentation and uncertainty estimation, in: Int. W. Shi, X. Zhuang, R. Wolz, D. Simon, K. Tung, H. Wang, S. Ourselin, P. Edwards, R. Razavi, D. Rueckert, A multi-image graph cut approach for heartc image segmentation and uncertainty estimation, in。 0.92
MICCAI STACOM Work., Springer, 2011, pp. MICCAI STACOM Work., Springer, 2011, pp. 0.85
178–187. [9] G. Wang, W. Li, T. Vercauteren, S. Ourselin, Automatic Brain Tumor Segmentation Based on Cascaded Convolutional Neural Networks With Uncertainty Estimation, Front. 178–187. 9] G. Wang, W. Li, T. Vercauteren, S. Ourselin, Automatic Brain Tumor Segmentation Based on Cascaded Convolutional Neural Networks with Uncertainty Estimation, Front. (英語) 0.83
Comput. Neurosci. Comput 神経科学。 0.54
13 (2019) 56. 13 (2019) 56. 0.85
英語(論文から抽出)日本語訳スコア
[10] W. Lei, H. Wang, R. Gu, S. Zhang, S. Zhang, G. Wang, DeepIGeoSV2: Deep Interactive Segmentation of Multiple Organs from Head and Neck Images with Lightweight CNNs, in: Int. 10] W. Lei, H. Wang, R. Gu, S. Zhang, S. Zhang, G. Wang, DeepIGeoSV2: Deep Interactive Segmentation of Multiple Organs from Head and Neck Images with Lightweight CNNs, int。 0.87
MICCAI LABELS Work., Springer, 2019, pp. MICCAI LABELS Work., Springer, 2019, pp. 0.85
61–69. [11] G. Wang, M. Aertsen, J. Deprest, S. Ourselin, T. Vercauteren, S. Zhang, Uncertainty-guided efficient interactive refinement of fetal brain segmentation from stacks of MRI slices, in: MICCAI, Springer, 2020, pp. 61–69. 11] G. Wang, M. Aertsen, J. Deprest, S. Ourselin, T. Vercauteren, S. Zhang, Uncertainty-guided efficient interactive refinement of fetal brain segmentation from stacks of MRI slices, in: MICCAI, Springer, 2020, pp。 0.84
279– 288. [12] J.-F. Daisne, A. Blumhofer, Atlas-based automatic segmentation of head and neck organs at risk and nodal target volumes: a clinical validation, Radiat. 279– 288. 12] j.-f. daisne, a. blumhofer, atlas-based automatic segmentation of head and neck organ at risk and nodal target volume: a clinical validation, radiat 0.90
Oncol. 8 (2013) 154. オンコル。 8 (2013) 154. 0.69
[13] Z. Wang, L. Wei, L. Wang, Y. Gao, W. Chen, D. Shen, Hierarchical vertex regression-based segmentation of head and neck CT images for radiotherapy planning, IEEE Trans. 13] Z. Wang, L. Wei, L. Wang, Y. Gao, W. Chen, D. Shen, Hierarchical vertex Regression-based segmentation of head and neck CT images for Radiotherapy planning, IEEE Trans. (英語) 0.90
Image Process. 27 (2017) 923–937. 画像処理。 27 (2017) 923–937. 0.80
[14] S. Gorthi, V. Duay, N. Houhou, M. B. Cuadra, U. Schick, M. Becker, A. S. Allal, J.-P. Thiran, Segmentation of head and neck lymph node regions for radiotherapy planning using active contour-based atlas registration, IEEE J. Sel. S. Gorthi, V. Duay, N. Houhou, M. B. Cuadra, U. Schick, M. Becker, A. S. Allal, J.-P. Thiran, Segmentation of head and neck lymph node region region for radiotherapy planning using active contour-based atlas registration, IEEE J. Sel。 0.89
Top. Signal Process. トップ。 信号処理。 0.71
3 (2009) 135–147. 3 (2009) 135–147. 0.92
[15] H. Yu, C. Caldwell, K. Mah, I. Poon, J. Balogh, R. MacKenzie, N. Khaouam, R. Tirona, Automated radiation targeting in head-and-neck cancer using region-based texture analysis of PET and CT images, Int. H. Yu, C. Caldwell, K. Mah, I. Poon, J. Balogh, R. MacKenzie, N. Khaouam, R. Tirona, Automated radiation targeting in head- and-neck cancer using region-based texture analysis of PET and CT images, Int。 0.89
J. Radiat. Oncol. J. Radiat オンコル。 0.66
Biol. Phys. 75 (2009) 618–625. Biol Phys 75 (2009) 618–625. 0.65
[16] X. Yang, N. Wu, G. Cheng, Z. Zhou, S. Y. David, J. J. Beitler, W. J. Curran, T. Liu, Automated segmentation of the parotid gland based on atlas registration and machine learning: a longitudinal MRI study in headand-neck radiation therapy, Int. X. Yang, N. Wu, G. Cheng, Z. Zhou, S. Y. David, J. J. Beitler, W. J. Curran, T. Liu, Automated segmentation of the parotid gland based on atlas registration and machine learning: a longitudinal MRI study in headand-neck radiation therapy, Int。 0.94
J. Radiat. Oncol. J. Radiat オンコル。 0.66
Biol. Phys. 90 (2014) 1225–1233. Biol Phys 90 (2014) 1225–1233. 0.65
[17] J. Zhou, K. L. Chan, P. Xu, V. F. Chong, Nasopharyngeal carcinoma in: 17] J. Zhou, K. L. Chan, P. Xu, V. F. Chong, Nasopharyngeal carcinoma in 0.92
lesion segmentation from MR images by support vector machine, ISBI, IEEE, 2006, pp. サポートベクター機械、ISBI、IEEE、2006、PPによるMR画像からの病変分割。 0.66
1364–1367. 1364–1367. 0.71
[18] I. Fitton, S. Cornelissen, J. C. Duppen, R. Steenbakkers, S. Peeters, F. Hoebers, J. H. Kaanders, P. Nowak, C. R. Rasch, M. van Herk, Semiautomatic delineation using weighted CT-MRI registered images for radiotherapy of nasopharyngeal cancer, Med. I. Fitton, S. Cornelissen, J. C. Duppen, R. Steenbakkers, S. Peeters, F. Hoebers, J. H. Kaanders, P. Nowak, C. R. Rasch, M. van Herk, Semiautomatic delineation using weighted CT-MRI registered image for radiotherapy of nasopharyngeal cancer, Med。 0.93
Phys. 38 (2011) 4662–4666. Phys 38 (2011) 4662–4666. 0.72
[19] F. K. Lee, D. K. Yeung, A. D. King, S. Leung, A. Ahuja, Segmentation of nasopharyngeal carcinoma (NPC) lesions in MR images, Int. F. K. Lee, D. K. Yeung, A. D. King, S. Leung, A. Ahuja, Segmentation of nasopharyngeal carcinoma (NPC) lesions in MR image, Int。 0.91
J. Radiat. Oncol. J. Radiat オンコル。 0.66
Biol. Phys. 61 (2005) 608–620. Biol Phys 61 (2005) 608–620. 0.65
[20] B. Ibragimov, L. Xing, Segmentation of organs-at-risks in head and neck CT images using convolutional neural networks, Med. B. Ibragimov, L. Xing, Segmentation of organs-at-risks in head and neck CT image using convolutional neural network, Med。 0.86
Phys. 44 (2017) 547–557. Phys 44 (2017) 547–557. 0.72
[21] J. Long, E. Shelhamer, T. Darrell, Fully convolutional networks for se- [21]J。 Long, E. Shelhamer, T. Darrell, Fully convolutional network for se- 0.84
mantic segmentation, in: CVPR, 2015, pp. マンティックセグメンテーション, in: CVPR, 2015 pp。 0.65
3431–3440. 3431–3440. 0.71
[22] O. Ronneberger, P. Fischer, T. Brox, U-net: Convolutional networks for biomedical image segmentation, in: MICCAI, Springer, 2015, pp. 22] O. Ronneberger, P. Fischer, T. Brox, U-net: Convolutional Network for Biomedical Image segmentation, in: MICCAI, Springer, 2015 pp。 0.89
234– 241. [23] K. Men, J. Dai, Y. Li, Automatic segmentation of the clinical target volume and organs at risk in the planning CT for rectal cancer using deep dilated convolutional neural networks, Med. 234– 241. K. Men, J. Dai, Y. Li, Automatic segmentation of the Clinical target volume and organs at risk in the planning CT for rectal cancer using deep dilated convolutional neural network, Med。 0.85
Phys. 44 (2017) 6377–6389. Phys 44 (2017) 6377–6389. 0.72
[24] L. Zhao, Z. Lu, J. Jiang, Y. Zhou, Y. Wu, Q. Feng, Automatic Nasopharyngeal Carcinoma Segmentation Using Fully Convolutional Networks with Auxiliary Paths on Dual-Modality PET-CT Images, J. Digit. L. Zhao, Z. Lu, J. Jiang, Y. Zhou, Y. Wu, Q. Feng, Automatic Nasopharyngeal Carcinoma Segmentation Using Fully Convolutional Networks with Auxiliary Paths on Dual-Modality PET-CT Images, J. Digit 0.96
Imaging 32 (2019) 462–470. 画像32 (2019) 462–470。 0.77
[25] K. D. Fritscher, M. Peroni, P. Zaffino, M. F. Spadea, R. Schubert, G. Sharp, Automatic segmentation of head and neck CT images for radiotherapy treatment planning using multiple atlases, statistical appearance models, and geodesic active contours, Med. [25] k. d. fritscher, m. peroni, p. zaffino, m. f. spadea, r. schubert, g. sharp, automatic segmentation of head and neck ct images for radiotherapy treatment planning using multiple atlass, statistical appearance models, and geodesic active contours, med, med 0.90
Phys. 41 (2014) 051910. Phys 41 (2014) 051910. 0.69
[26] S. Liang, F. Tang, X. Huang, K. Yang, T. Zhong, R. Hu, S. Liu, X. Yuan, Y. Zhang, Deep-learning-based detection and segmentation of organs at risk in nasopharyngeal carcinoma computed tomographic images for radiotherapy planning, Eur. [26] S. Liang, F. Tang, X. Huang, K. Yang, T. Zhong, R. Hu, S. Liu, X. Yuan, Y. Zhang, Deep- Learning-based detection and segmentation of organs at risk in nasopharyngeal carcinoma Computed tomographic images for Radiotherapy planning, Eur。 0.92
Radiol. 29 (2019) 1961–1967. ラジオ。 29 (2019) 1961–1967. 0.79
¨O. C¸ ic¸ek, A. Abdulkadir, S. S. Lienkamp, T. Brox, O. Ronneberger, 3D U-Net: learning dense volumetric segmentation from sparse annotation, in: MICCAI, Springer, 2016, pp. うーん。 A. Abdulkadir, S.S. Lienkamp, T. Brox, O. Ronneberger, 3D U-Net:スパースアノテーションから密な体積分割を学ぶ: MICCAI, Springer, 2016 pp。 0.69
424–432. [27] 424–432. [27] 0.78
[28] P. F. Raudaschl, P. Zaffino, G. C. Sharp, M. F. Spadea, A. Chen, B. M. Dawant, T. Albrecht, T. Gass, C. Langguth, M. L¨uthi, et al., Evaluation of segmentation methods on head and neck ct: auto-segmentation challenge 2015, Medical physics 44 (2017) 2020–2036. P. F. Raudaschl, P. Zaffino, G. C. Sharp, M. F. Spadea, A. Chen, B. M. Dawant, T. Albrecht, T. Gass, C. Langguth, M. L suthi, et al., 頭頸部の分節法の評価: 2015 Auto-segmentation Challenge 2015 (2017) 2020–2036。 0.85
[29] F. Milletari, N. Navab, S.-A. [29]F. Milletari, N. Navab, S.-A. 0.87
Ahmadi, V-net: Fully convolutional neural in: 3DV, IEEE, Ahmadi, V-net: 完全な畳み込みニューラルイン: 3DV, IEEE, 0.81
networks for volumetric medical image segmentation, 2016, pp. network for volumetric medical image segmentation, 2016, pp。 0.78
565–571. [30] T.-Y. 565–571. 30] T.-Y。 0.77
Lin, P. Goyal, R. Girshick, K. He, P. Doll´ar, Focal loss for dense Lin, P. Goyal, R. Girshick, K. He, P. Doll ́ar, Focal loss for dense 0.89
14 object detection, in: ICCV, 2017, pp. 14 物体検出, in:ICCV, 2017, pp。 0.80
2980–2988. 2980–2988. 0.71
[31] Z. Gu, J. Cheng, H. Fu, K. Zhou, H. Hao, Y. Zhao, T. Zhang, S. Gao, J. Liu, Ce-net: Context encoder network for 2d medical image segmentation, IEEE transactions on medical imaging 38 (2019) 2281–2292. Z. Gu, J. Cheng, H. Fu, K. Zhou, H. Hao, Y. Zhao, T. Zhang, S. Gao, J. Liu, Ce-net: Context encoder network for 2d medical image segmentation, IEEE transaction on medical imaging 38 (2019) 2281–2292。 0.94
[32] J. Chen, Y. Wang, R. Guo, B. Yu, T. Chen, W. Wang, R. Feng, D. Z. Chen, J. Wu, Lsrc: A long-short range context-fusing framework for automatic 3d vertebra localization, in: International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer, 2019, pp. J. Chen, Y. Wang, R. Guo, B. Yu, T. Chen, W. Wang, R. Feng, D. Z. Chen, J. Wu, Lsrc: A long-short range context-fusing framework for Automatic 3d vertebra Localization, in: International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer, 2019, pp。 0.92
95– 103. [33] D. Karimi, S. E. Salcudean, Reducing the hausdorff distance in medical image segmentation with convolutional neural networks, IEEE Transactions on medical imaging 39 (2019) 499–513. 95– 103. 33] D. Karimi, S. E. Salcudean, Reduce the hausdorff distance in medical image segmentation with convolutional neural Network, IEEE Transactions on Medical Imaging 39 (2019) 499–513. コンボリューションニューラルネットワーク 0.93
[34] M. P. Heinrich, Closing the gap between deep and conventional image registration using probabilistic dense displacement networks, in: International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer, 2019, pp. 34] M.P. Heinrich, Closing the gap between deep image registration using probabilistic dense displacement network, in: International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer, 2019, pp. (英語) 0.87
50–58. [35] G. Wang, W. Li, S. Ourselin, T. Vercauteren, Automatic brain tumor segmentation using cascaded anisotropic convolutional neural networks, in: International MICCAI brainlesion workshop, Springer, 2017, pp. 50–58. G. Wang, W. Li, S. Ourselin, T. Vercauteren, Automatic brain tumor segmentation using cascaded anisotropic convolutional neural network, in: International MICCAI brainlesion Workshop, Springer, 2017 pp。 0.76
178– 190. [36] H. R. Roth, L. Lu, J. Liu, J. Yao, A. Seff, K. Cherry, L. Kim, R. M. Summers, Improving computer-aided detection using convolutional neural networks and random view aggregation, IEEE transactions on medical imaging 35 (2015) 1170–1181. 178– 190. H. R. Roth, L. Lu, J. Liu, J. Yao, A. Seff, K. Cherry, L. Kim, R. M. Summers, Improving computer-aided detection using convolutional neural network and random view aggregate, IEEE transaction on medical imaging 35 (2015) 1170–1181。 0.94
[37] J.-S. Prassni, T. Ropinski, K. Hinrichs, Uncertainty-aware guided volume [37]J.-S. Prassni, T. Ropinski, K. Hinrichs, Uncertainty-awareed volume 0.82
segmentation, IEEE Trans. segmentation, IEEE Trans。 0.79
Vis. Comput. Vis Comput 0.50
Graph. 16 (2010) 1358–1365. Graph。 16 (2010) 1358–1365. 0.86
[38] G. Wang, W. Li, M. A. Zuluaga, R. Pratt, P. A. Patel, M. Aertsen, T. Doel, A. L. David, J. Deprest, S. Ourselin, et al., Interactive medical image segmentation using deep learning with image-specific fine tuning, IEEE Trans. G. Wang, W. Li, M. A. Zuluaga, R. Pratt, P. A. Patel, M. Aertsen, T. Doel, A. L. David, J. Deprest, S. Ourselin, al., Interactive Medical Image segmentation using Deep Learning with image-specific fine tuning, IEEE Trans。 0.93
Med. Imaging 37 (2018) 1562–1573. 薬だ 画像37 (2018) 1562-1573。 0.55
[39] A. Kendall, Y. Gal, What uncertainties do we need in bayesian deep 39]A. Kendall, Y. Gal, ベイズ深部における不確実性 0.71
learning for computer vision?, in: NIPS, 2017, pp. コンピュータビジョンの学習?、イン: NIPS, 2017 pp。 0.69
5574–5584. 5574–5584. 0.71
[40] B. Lakshminarayanan, A. Pritzel, C. Blundell, Simple and scalable predictive uncertainty estimation using deep ensembles, in: NIPS, 2017, pp. [40] b. lakshminarayanan, a. pritzel, c. blundell, simple and scalable prediction uncertainty estimation using deep ensemble, in: nips, 2017 pp。 0.80
6402–6413. 6402–6413. 0.71
[41] Y. Zhu, N. Zabaras, Bayesian deep convolutional encoder–decoder networks for surrogate modeling and uncertainty quantification, J. Comput. [41] Y. Zhu, N. Zabaras, Bayesian Deep Convolutional Encoder–decoder Network for surrogate modeling and uncertainty Quantification, J. Comput。 0.92
Phys. 366 (2018) 415–447. Phys 366 (2018) 415–447. 0.72
[42] A. G. Roy, S. Conjeti, N. Navab, C. Wachinger, Inherent brain segmentation quality control from fully convnet monte carlo sampling, in: MICCAI, Springer, 2018, pp. A. G. Roy, S. Conjeti, N. Navab, C. Wachinger, Inherent brain segmentation quality control from fully convnet monte carlo sample, in: MICCAI, Springer, 2018, pp。 0.82
664–672. [43] T. Nair, D. Precup, D. L. Arnold, T. Arbel, Exploring uncertainty measures in deep networks for multiple sclerosis lesion detection and segmentation, Med. 664–672. 43] T. Nair, D. Precup, D. L. Arnold, T. Arbel, 多発性硬化症病変の検出と分割のための深いネットワークにおける不確実性対策を探る。 0.72
Image Anal. 59 (2020) 101557. 画像アナル。 59 (2020) 101557. 0.72
[44] G. Wang, W. Li, M. Aertsen, J. Deprest, S. Ourselin, T. Vercauteren, Aleatoric uncertainty estimation with test-time augmentation for medical image segmentation with convolutional neural networks, Neurocomputing 338 (2019) 34–45. G. Wang, W. Li, M. Aertsen, J. Deprest, S. Ourselin, T. Vercauteren, Aleatoric uncertainty Estimation with test-time augmentation for medical image segmentation with convolutional Neural Network, Neurocomputing 338 (2019) 34–45。 0.93
[45] D. Ulyanov, A. Vedaldi, V. Lempitsky, [45]D. Ulyanov, A. Vedaldi, V. Lempitsky, 0.94
Instance normalization: The missing ingredient for fast stylization, arXiv preprint arXiv:1607.08022 (2016). インスタンス正規化: 速い定型化のための欠落成分 arXiv preprint arXiv:1607.08022 (2016)。 0.79
[46] V. Nair, G. E. Hinton, Rectified linear units improve restricted boltzmann [46] V. Nair, G. E. Hinton, Rectified linear units improve restricted boltzmann 1.00
machines, in: ICML, 2010, pp. 機械、 in: ICML、2010 pp。 0.57
807–814. [47] J. Hu, L. Shen, G. Sun, Squeeze-and-excitati on networks, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 807–814. 47] J. Hu, L. Shen, G. Sun, Squeeze-and-excitati on network, in: Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, 2018 pp。 0.80
7132–7141. 7132–7141. 0.71
[48] K. He, X. Zhang, S. Ren, J. [48]K.He,X.Zhang,S. Ren,J。 0.80
Sun, Deep residual learning for image recognition, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. Sun, Deep Residial Learning for Image Recognition, in: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016 pp. 2016(英語) 0.78
770–778. [49] D. P. Kingma, J. Ba, Adam: A method for stochastic optimization, arXiv 770–778. 49] D.P. Kingma, J. Ba, Adam: 確率最適化法 arXiv 0.72
preprint arXiv:1412.6980 (2014). arXiv:1412.6980 (2014) 0.77
[50] E. Gibson, F. Giganti, Y. Hu, E. Bonmati, S. Bandula, K. Gurusamy, B. Davidson, S. P. Pereira, M. J. Clarkson, D. C. Barratt, Automatic multi-organ segmentation on abdominal CT with dense v-networks, IEEE Trans. E. Gibson, F. Giganti, Y. Hu, E. Bonmati, S. Bandula, K. Gurusamy, B. Davidson, S. P. Pereira, M. J. Clarkson, D. C. Barratt, Automatic multi-organ segmentation on abdominal CT with dense v-networks, IEEE Trans。 0.89
Med. Imaging 37 (2018) 1822–1834. 薬だ 画像 37 (2018) 1822–1834。 0.63
[51] A. Krizhevsky, I. Sutskever, G. E. Hinton, Imagenet classification with 51] A. Krizhevsky, I. Sutskever, G. E. Hinton, Imagenet classification with with 0.92
deep convolutional neural networks, in: NIPS, 2012, pp. ディープ畳み込みニューラルネットワーク, in: NIPS, 2012 pp。 0.65
1097–1105. 1097–1105. 0.71
[52] F. Chollet, Xception: Deep learning with depthwise separable convolu- 52]F. Chollet, Xception:Deepwise Separable Convoluによる深層学習- 0.85
tions, in: CVPR, 2017, pp. tions, in: CVPR, 2017 pp。 0.73
1251–1258. 1251–1258. 0.71
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。