論文の概要、ライセンス

# (参考訳) EnMcGAN:3次元完全腎構造セグメンテーションのための逆アンサンブル学習 [全文訳有]

EnMcGAN: Adversarial Ensemble Learning for 3D Complete Renal Structures Segmentation ( http://arxiv.org/abs/2106.04130v1 )

ライセンス: CC BY 4.0
Yuting He, Rongjun Ge, Xiaoming Qi, Guanyu Yang, Yang Chen, Youyong Kong, Huazhong Shu, Jean-Louis Coatrieux, Shuo Li(参考訳) 3次元完全腎構造(CRS)セグメンテーションは、腎臓、腫瘍、腎動脈、静脈を1つの推論でセグメント化することを目的としている。 一度成功すれば、腹腔鏡下部分腎切除術(LPN)の術前計画と術中指導が腎癌治療において重要な役割を果たす。 しかし, 腎構造の複雑な形状, 低コントラスト, 解剖学的変化により, 3次元CRSセグメンテーションは成功しなかった。 本研究では,3次元CRSセグメンテーションのための逆アンサンブル学習とEnsemble Multi-condition GAN(EnMcGAN)を提案する。 その貢献は3倍である。 1) ウィンドウ化に触発されて, cta イメージを窓中心と幅の異なる複数の狭い窓に分割し, 高度境界と軟組織とのコントラストを高めるマルチウィンドウ化委員会を提案する。 そして、これらの狭い窓にアンサンブルセグメンテーションモデルを構築し、セグメンテーションの優位性を融合させ、セグメンテーション全体の品質を向上させる。 2) 分割モデルに複数の識別器を組み込んだ多条件GANを提案し, 実際の形状条件を満たすセグメント構造を奨励し, 形状特徴抽出能力を向上させる。 3) 訓練された判別器を用いてセグメント構造の品質評価を行う逆重みアンサンブルモジュールを提案し,これらの評価スコアを入力画像に対するアンサンブルウェイトに対して正規化し,アンサンブル結果の向上を図る。 この研究には122人の患者が登録されており、腎構造の平均dice係数は84.6%に達する。 腎構造に有望な結果をもたらす広範な実験により、腎癌治療において強力な分節精度と大きな臨床的意義が明らかになった。

3D complete renal structures(CRS) segmentation targets on segmenting the kidneys, tumors, renal arteries and veins in one inference. Once successful, it will provide preoperative plans and intraoperative guidance for laparoscopic partial nephrectomy(LPN), playing a key role in the renal cancer treatment. However, no success has been reported in 3D CRS segmentation due to the complex shapes of renal structures, low contrast and large anatomical variation. In this study, we utilize the adversarial ensemble learning and propose Ensemble Multi-condition GAN(EnMcGAN) for 3D CRS segmentation for the first time. Its contribution is three-fold. 1)Inspired by windowing, we propose the multi-windowing committee which divides CTA image into multiple narrow windows with different window centers and widths enhancing the contrast for salient boundaries and soft tissues. And then, it builds an ensemble segmentation model on these narrow windows to fuse the segmentation superiorities and improve whole segmentation quality. 2)We propose the multi-condition GAN which equips the segmentation model with multiple discriminators to encourage the segmented structures meeting their real shape conditions, thus improving the shape feature extraction ability. 3)We propose the adversarial weighted ensemble module which uses the trained discriminators to evaluate the quality of segmented structures, and normalizes these evaluation scores for the ensemble weights directed at the input image, thus enhancing the ensemble results. 122 patients are enrolled in this study and the mean Dice coefficient of the renal structures achieves 84.6%. Extensive experiments with promising results on renal structures reveal powerful segmentation accuracy and great clinical significance in renal cancer treatment.
公開日: Tue, 8 Jun 2021 06:40:42 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V I . 8 ] V 私は。 0.82
s s e e [ 1 v 0 3 1 4 0 s s e [ 1 v 0 3 1 4 0 0.77
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
EnMcGAN: Adversarial Ensemble Learning for enmcgan: 敵対的なアンサンブル学習 0.59
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
Yuting He1, Rongjun Ge1, Xiaoming Qi1, Guanyu Yang1,3((cid:66)), Yang Chen1,3, he1, rongjun ge1, xiaoming qi1, guanyu yang1,3((cid:66)), yang chen1,3 0.71
Youyong Kong1,3, Huazhong Shu1,3, Jean-Louis Coatrieux2, and Shuo Li4 洋経1,3,Huazhong Shu1,3,Jean-Louis Coatrieux2,Shuo Li4 0.60
1 LIST, Key Laboratory of Computer Network and Information Integration コンピュータネットワークと情報統合のキーラボ「1 LIST」 0.76
(Southeast University), Ministry of Education, Nanjing, China 中国南京教育省(南京大学) 0.42
2 Univ Rennes, Inserm, LTSI - UMR1099, Rennes, F-35000, France 2Univ Rennes, Inserm, LTSI - UMR1099, Rennes, F-35000, France 0.98
3 Centre de Recherche en Information Biom´edicale Sino-Fran¸cais (CRIBs) 3 情報バイオマス・シノ・フラン・アカイス(CRIBs)のレシェシュセンター 0.53
4 Dept. of Medical Biophysics, University of Western Ontario, London, ON, Canada 4位。 カナダ・ロンドン・オン・ウェスタンオンタリオ大学医学生理学 0.63
yang.list@seu.edu.cn yang.list@seu.edu.cn 0.47
Abstract. 3D complete renal structures(CRS) segmentation targets on segmenting the kidneys, tumors, renal arteries and veins in one inference. 抽象。 3次元完全腎構造(CRS)セグメンテーションは、腎臓、腫瘍、腎動脈、静脈を1つの推論でセグメント化することを目的としている。
訳抜け防止モード: 抽象。 3次元完全腎構造(CRS)セグメンテーションターゲット 腎臓、腫瘍、腎動脈、静脈を1つの推論で区分すること。
0.75
Once successful, it will provide preoperative plans and intraoperative guidance for laparoscopic partial nephrectomy(LPN), playing a key role in the renal cancer treatment. 一度成功すれば、腹腔鏡下部分腎切除術(LPN)の術前計画と術中指導が腎癌治療において重要な役割を果たす。 0.77
However, no success has been reported in 3D CRS segmentation due to the complex shapes of renal structures, low contrast and large anatomical variation. しかし, 腎構造の複雑な形状, 低コントラスト, 解剖学的変化により, 3次元CRSセグメンテーションは成功しなかった。 0.79
In this study, we utilize the adversarial ensemble learning and propose Ensemble Multicondition GAN (EnMcGAN) for 3D CRS segmentation for the first time. 本研究では,3次元CRSセグメンテーションのための逆アンサンブル学習とEnsemble Multicondition GAN(EnMcGAN)を提案する。 0.63
Its contribution is three-fold. その貢献は3倍である。 0.60
1)Inspired by windowing[4], we propose the multi-windowing committee which divides CTA image into multiple narrow windows with different window centers and widths enhancing the contrast for salient boundaries and soft tissues. 1) ウィンドウニング[4] に触発されて, cta イメージを窓中心と幅の異なる複数の狭い窓に分割し, 高度境界と軟組織とのコントラストを高めるマルチウィンドウ化委員会を提案する。 0.82
And then, it builds an ensemble segmentation model on these narrow windows to fuse the segmentation superiorities and improve whole segmentation quality. そして、これらの狭い窓にアンサンブルセグメンテーションモデルを構築し、セグメンテーションの優位性を融合させ、セグメンテーション全体の品質を向上させる。 0.56
2)We propose the multi-condition GAN which equips the segmentation model with multiple discriminators to encourage the segmented structures meeting their real shape conditions, thus improving the shape feature extraction ability. 2) 分割モデルに複数の識別器を組み込んだ多条件GANを提案し, 実際の形状条件を満たすセグメント構造を奨励し, 形状特徴抽出能力を向上させる。 0.88
3)We propose the adversarial weighted ensemble module which uses the trained discriminators to evaluate the quality of segmented structures, and normalizes these evaluation scores for the ensemble weights directed at the input image, thus enhancing the ensemble results. 3) 訓練された判別器を用いてセグメント構造の品質評価を行う逆重みアンサンブルモジュールを提案し,これらの評価スコアを入力画像に対するアンサンブルウェイトに対して正規化し,アンサンブル結果の向上を図る。 0.76
122 patients are enrolled in this study and the mean Dice coefficient of the renal structures achieves 84.6%. この研究には122人の患者が登録されており、腎構造の平均dice係数は84.6%に達する。 0.70
Extensive experiments with promising results on renal structures reveal powerful segmentation accuracy and great clinical significance in renal cancer treatment. 腎構造に有望な結果をもたらす広範な実験により、腎癌治療において強力な分節精度と大きな臨床的意義が明らかになった。
訳抜け防止モード: 腎構造に関する有望な実験により、強力なセグメンテーション精度が示された 腎癌治療における大きな臨床的意義
0.78
1 Introduction 3D complete renal structures(CRS) segmentation on CTA image targets on segmenting the kidneys, tumors, renal arteries and veins in one inference. 1 はじめに 3d complete renal structures (crs) segmentation on cta image targets on segmenting the kidneys, tumors, renal arterys and veins in one inference (特集 腎・腫瘍・動脈・静脈) 0.72
Once successful, it will provide preoperative plans and intraoperative guidance for laparoscopic partial nephrectomy (LPN) [20,21], playing a key role in renal cancer 一度成功すれば、腹腔鏡下部分腎切除術(LPN)[20,21]の術前計画と術中指導が腎癌において重要な役割を果たす。 0.75
英語(論文から抽出)日本語訳スコア
2 Y. He et al 2 Y! He et al 0.78
Fig. 1. The challenges of the 3D CRS segmentation. フィギュア。 1. 3D CRSセグメンテーションの課題。 0.61
a) The renal structures has complex shapes making difficult feature extraction. a) 腎構造は複雑で,特徴抽出が困難である。 0.85
b) The original CTA images has low contrast bringing low segmentation quality on boundaries. b) 元のCTA画像のコントラストは低く, 境界のセグメンテーション品質は低い。 0.82
c) The renal structures has large anatomical variation in different cases causing weak generalization ability. c) 腎構造は, 各症例の解剖学的変化が大きく, 一般化能力は弱い。 0.80
treatment [19]. Preoperatively, the renal artery reaching the interlobar arteries will guide the estimation of perfusion regions to select the tumor-feeding branches and locate the arterial clamping position [20]. 治療[19]. 術前は, 腎動脈が葉間動脈まで達し, 灌流部位の推定を指導し, 腫瘍摘出枝を選択し, 動脈閉塞位置[20]を同定する。 0.73
The kidney and tumor will show the lesions’ location to pre-plan the tumor resection surface [25]. 腎と腫瘍は腫瘍切除面[25]を事前に計画するための病変の位置を示す。 0.77
Intraoperatively, the veins outside the hilum will help the clinicians exclude the unconcerned vessels thus clamping the accurate arterial positions quickly. 術中は, 腹腔外の静脈は, 結節のない血管の除去に役立ち, 正確な動脈位を急速にクランプする。 0.65
Besides, the 3D CRS visual model will also be fused with the laparoscopic videos bringing the augmented reality [15], so that the invisible regions will be supplemented to guide the operation smoothly. さらに、3d crsのビジュアルモデルは、拡張現実[15]をもたらす腹腔鏡ビデオとも融合するので、目に見えない領域は、操作をスムーズに導くために補足される。 0.70
With the assistance of 3D CRS segmentation, the safety of renal surgery is improved, the pain of patients is relieved and the cost of the treatment is reduced. 3D CRSセグメンテーションの補助により、腎外科の安全性が向上し、患者の痛みが軽減され、治療費が削減される。 0.64
However, there is no effective solution for 3D CRS segmentation. しかし、3次元CRSセグメンテーションには有効な解決策がない。 0.69
Taha et al [23] utilized a Kid-Net achieving the renal vessels segmentation. Taha et al [23] は腎血管セグメンテーションを実現する Kid-Net を利用した。 0.67
He et al [6] proposed a semi-supervised framework and achieved the fine renal artery segmentation. he et al [6] は半監督の枠組みを提案し, 微細な腎動脈分画を認めた。 0.63
Li et al [9] designed a Residual U-Net for renal structures segmentation. Li et al [9] は腎構造セグメンテーションのための残留U-Netを設計した。 0.65
The related works are limited in our task: 1)On one hand, some works [23,6] only focused on partial renal structures lacking the countermeasures to the complete structures in one-inference segmentation. 関連する研究は,(1) 腎部分構造にのみ焦点をあてた研究 [23,6] では, 部分的腎構造にのみ焦点が当てられ, 部分的腎分節の完全構造に対する対策が欠如している。
訳抜け防止モード: その関連作品は我々の仕事で限られている 1) 腎部分構造のみに焦点を当てた研究(23,6)は, 完全構造に対する対策が欠如している。
0.75
The one-by-one segmentation also will make overlap of different structures especially on low-contrast boundaries. 1対1のセグメンテーションは、特に低コントラスト境界上で異なる構造を重複させる。 0.59
2)On the other, some works [9,23] lack the fine detail of the segmented structures limiting the clinical downstream tasks. 2) 他方では, [9,23] 臨床下流の作業を制限する細部構造の詳細が欠けている作品もある。 0.85
For example, their arteries only reaches the segmental arteries losing the ability of perfusion regions estimation. 例えば、動脈は分節動脈にしか届かないが、灌流領域の推定能力を失う。 0.64
Formidable challenges of 3D CRS segmentation are limiting its further applications: 1) Complex shapes of renal structures. 3d crsセグメンテーションはさらなる応用を制限している: 1) 腎構造の複雑な形状。 0.71
These structures have complex shapes, for example, the arteries have tree-like shape while the tumors have balllike shape (Fig. これらの構造は複雑で、例えば動脈は木のような形をしており、腫瘍は球状の形をしている(図)。 0.66
1 (a)). The model has to represent their features simultaneously resulting in a difficult feature extraction process and limiting its generalization ability. 1(a)であった。 モデルはそれらの特徴を同時に表現する必要があるため、特徴抽出プロセスが難しくなり、その一般化能力が制限される。 0.65
2) Coarse-grained pattern and low contrast. 2)粗い粒状パターンと低いコントラスト。 0.84
CT image has a large gray range (4096), and the structures of interests in our task are only in a narrow range. CT画像は大きなグレーレンジ (4096) を有しており, 作業における関心の構造は狭い範囲に限られている。 0.81
This makes the contrast of soft tissues and the boundary regions are これにより軟組織と境界領域の対比が可能となる。 0.72
英語(論文から抽出)日本語訳スコア
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
3 low in original images (Fig. 3 オリジナル画像の低さ(図)。 0.81
1(b)) such as the tumors and veins, making coarsegrained pattern. 1(b))は腫瘍や静脈のように粗い粒状になる。 0.74
Therefore, the segmentation network will difficult to perceive the fine-grained pattern in such a narrow distribution limiting the integrity of the structures and the quality of boundaries. したがって、分節化ネットワークは、構造と境界品質の完全性を制限するような狭い分布において、細粒度パターンを知覚することが困難となる。 0.73
3) Large anatomical variation. 3)大きな解剖学的変化。 0.79
Renal vessels have uncertain branch numbers and growth topology [6,17], and the location of the tumors and their damage to the kidneys are uncertain(Fig. 腎血管は, 分岐数と成長トポロジ [6,17] が不確実であり, 腫瘍の位置と腎臓への損傷は不確かである(図)。 0.87
1(c)). These anatomical variation makes it difficult to cover all variation, limiting the model’s generalization. 1(c)。 これらの解剖学的変異は、すべてのバリエーションをカバーすることが難しく、モデルの一般化を制限する。 0.67
The windowing [4] removes irrelevant gray ranges and expands the interested distribution making the network focus on the wider distribution to perceive finegrained pattern. ウィンドウニング[4]は、無関係なグレー範囲を取り除き、興味のある分布を広げ、ネットワークがより広い分布に焦点を当てて細粒度パターンを知覚する。
訳抜け防止モード: ウィンドウ化[4]は無関係なグレーレンジを除去し、関心のある分布を拡張する ネットワークをより広い分布に集中させ きめ細かいパターンを知覚します
0.75
Inspired by the radiologist delineating the renal structures in different window widths and centers (sub-windows) via windowing, we propose the multi-windowing committee (MWC). 腎組織を異なる窓幅と中心(サブウィンドウ)でウィンドウ化することにより,マルチウィンドウ化委員会 (multi-windowing committee, mwc) を提案する。 0.75
We select the sub-windows which of superiority in renal structures on CTA images, and divide the CTA image into these sub-windows thus expanding our task-interested distribution and making fine-grained pattern such as boundaries (Fig. CTA画像上の腎構造に優れたサブウインドウを選択し,CTA画像をこれらのサブウインドウに分割することにより,タスク関心の分布を拡大し,境界などのきめ細かいパターン(図)を作成する。 0.69
2(a)). We train multiple learners on these sub-window images for the fine-grained representations on their covered distributions making segmentation superiorities. 2(a)であった。 我々は,これらのサブウィンドウイメージ上で複数の学習者を訓練し,その被覆分布のきめ細かい表現をセグメント化に優れる。 0.68
Finally, these superiorities will be fused [18] improving the integrated segmentation quality. 最後に、これらの優位性は統合されたセグメンテーション品質を改善する[18]。 0.72
The shape regularisation utilizes the shape knowledge learned by an additional model to encourage the CNN extracting higher-order shape features [13,16,10]. 形状正規化は、CNNが高次形状特徴[13,16,10]を抽出することを奨励するために追加モデルで学習した形状知識を利用する。
訳抜け防止モード: 形状規則化は追加モデルによって学習される形状知識を利用する 高次形状特徴[13,16,10]を抽出するcnnを促進する。
0.72
We propose the Multi-condition GAN (McGAN) which equips the segmentation model with multiple discriminators for global shape constraints (Fig. 本稿では,大域的形状制約に対する複数の識別器を備えたセグメント化モデル(McGAN)を提案する。 0.74
2(b)). During adversarial training, the discriminators learn to evaluate the similarity between the segmented structures’ shapes and real shapes, thus learning the higher-order shape knowledge of the renal structures via the min-max game of the adversarial training [5]. 2(b))である。 敵意訓練中, 判別者は, 分節構造の形状と実形状の類似性を評価し, 敵意訓練のmin-maxゲームを通じて腎構造の高次形状知識を学習する [5]。 0.78
Then, these knowledge are made as the conditions that the segmented renal structures have to meet when optimizing the segmentation models, improving the shape feature extraction ability. そして, これらの知識は, セグメンテーションモデルを最適化する際に, セグメンテーションされた腎構造が満たさなければならない条件として, 形状特徴抽出能力を向上させる。 0.72
Fusing the segmentation superiorities of the learners will bridge their representation preferences caused by large anatomical variations [18,3]. 学習者のセグメンテーション優位性を融合させることで、大きな解剖学的変異による表現嗜好を橋渡しする[18,3]。 0.64
These preferences will make the learners have better segmentation quality in their advantageous regions and poor quality in vulnerable regions, if being fused, the whole accuracy will be improved. これらの選好により、学習者は有利な地域でのセグメンテーションの品質が向上し、脆弱な地域では品質が低下する。
訳抜け防止モード: これらの好みは 学習者は、有利な地域でのセグメンテーションの質と、脆弱な地域での質が良い。 融合すれば 全精度が向上する。
0.68
Therefore, we propose the adversarial weighted Ensemble (AWE) (Fig. そこで,我々はadversarial weighted ensemble (awe) (fig)を提案する。 0.57
2(c)) which utilizes the trained discriminators to evaluate the pixel-wise segmentation quality of the results, thus giving higher weights to better quality regions and making the ensemble direct at the segmentation quality dynamically. 2(c))は、訓練された判別器を用いて、結果の画素単位のセグメンテーション品質を評価し、より良い品質領域により高い重みを与え、セグメンテーション品質を直接動的にアンサンブルさせる。 0.67
So, the fusion of the advantageous regions in the results will balance the representation preferences and bring personalized ensemble process. したがって、有利な領域の融合は、表現の好みをバランスさせ、パーソナライズされたアンサンブルプロセスをもたらす。 0.55
We propose an adversarial ensemble learning framework, EnMcGAN, for 3D 3dのための逆アンサンブル学習フレームワークenmcganを提案する。 0.63
CRS segmentation for the first time. CRSのセグメンテーションが初めて。 0.56
Our detailed contributions are as follow: 私たちの詳細な貢献は次のとおりです。 0.55
– We propose the adversarial ensemble learning which equips the ensemble segmentation model with adversarial learning for the first time, and propose the EnMcGAN for 3D CRS segmentation which will play an important role 本稿では, 初めてアンサンブルセグメンテーションモデルと逆学習を組み込んだ逆アンサンブル学習を提案し, 重要な役割を果たす3次元crsセグメンテーションのためのenmcganを提案する。
訳抜け防止モード: – 本研究は, 初めてアンサンブルセグメンテーションモデルと対人学習を組み合わせた対人アンサンブル学習を提案する。 3次元CRSセグメンテーションのためのEnMcGANの提案 重要な役割を担います
0.74
英語(論文から抽出)日本語訳スコア
4 Y. He et al 4 Y! He et al 0.78
in accurate preoperative planning and intraoperative guidance of LPN. LPNの正確な術前計画と術中指導。 0.60
Our complete experiments demonstrate its excellent performance. 私たちの完全な実験はその優れた性能を示した。 0.56
– We propose the multi-windowing committee (MWC) which divides CTA image into the sub-windows which of superiority in renal structures, making fine-grained pattern. 腎組織においてCTA像を優越するサブウインドウに分割し,細粒なパターンを呈するマルチウインドウ委員会(MWC)を提案する。 0.72
Then the learners trained on these sub-windows are constructed as an ensemble framework to fuse the fine-grained representations on the covered distributions of these sub-windows, thus improving integrated segmentation quality. そして、これらのサブウィンドウで訓練された学習者はアンサンブル・フレームワークとして構築され、これらのサブウィンドウの被覆分布のきめ細かい表現を融合させ、統合されたセグメンテーション品質を向上させる。 0.54
– We present the multi-condition GAN (McGAN) which embeds the shape knowledge in segmentation model via multiple discriminators, thus encouraging the segmented results being consistent with their shape prior knowledge and improving the shape features extraction ability. 本研究では,複数の識別器を介してセグメント化モデルに形状知識を組み込んだマルチ条件GAN(McGAN)を提案する。
訳抜け防止モード: –複数の識別器を介してセグメント化モデルに形状知識を組み込むマルチ条件GAN(McGAN)を提案する。 これにより、セグメント化された結果が、以前の形状と一致し、形状の特徴抽出能力が向上する。
0.73
– We propose the adversarial weighted Ensemble (AWE) which utilizes segmentation quality evaluation ability of the trained discriminators to fuse the advantageous regions in the segmented results, thus bringing personalized fine ensemble process and balancing the representation preferences. – 学習した識別器のセグメンテーション品質評価能力を利用して, セグメンテーション結果に有利な領域を融合させ, パーソナライズされた微細アンサンブルプロセスと表現選好のバランスをとる逆重みアンサンブル(AWE)を提案する。 0.75
2 Methodology Fig. 2 方法論 フィギュア。 0.60
2. The illustration of our EnMcGAN: a) MWC enhances the contrast on windowed images bringing salient boundaries and soft tissues (Sec. 2. The illustration of our EnMcGAN: a) MWC enhances the contrast on windowed image bring the salient boundary and soft tissues (Sec。 0.86
2.1); b) McGAN utilizes multiple discriminators for shape constraints (Sec. 2.1); b) mcganは形状制約に複数の判別器(sec)を使用している。 0.52
2.2) and c) AWE module utilizes the trained discriminators for dynamic ensemble weights (Sec. 2.2)およびc) aweモジュールは、動的アンサンブル重み(sec)のための訓練された判別器を利用する。 0.56
2.3). As shown in Fig 2, our proposed EnMcGAN takes adversarial ensemble learning for high quality 3D CRS segmentation. 2.3). 図2に示すように,提案するEnMcGANは,高品質な3次元CRSセグメンテーションのための逆アンサンブル学習を行う。 0.72
It has three cooperative elements: 1) Multi-windowing committee (MWC, Sec. 1)多ウィンドウ委員会(MWC、Sec)の3つの協力的要素がある。 0.63
2.1) thresholds and normalizes the CTA image enhancing the contrast and making the fine-grained pattern, and fuses the segmentation superiorities of multiple segmentation learners trained in different covered distributions improving the integrated segmentation quality. 2)CTA画像のしきい値と正規化によりコントラストが向上し,パターンの微細化が図られ,複数のセグメンテーション学習者のセグメンテーション優位性が向上し,統合セグメンテーション品質が向上する。 0.77
2) Multi-condition GAN (McGAN, Sec. 2)マルチコンディションGAN (McGAN, Sec。 0.77
2.2) utilizes shape constraints 2.形状制約を利用する 0.62
VeinArteryTumorKidne ySb) Multi-condition GANfor shape constraintsSegmented GoundTruthCTA imageDLadv3DLadv2DLa dv0DLadv1McGANsVeinA rteryTumorKidneyc) Adversarial weighting ensemble for personalized fine fusionDs0s1Kidney0Ki dney1Kidney8 Ds8D w0w1w8*** Ensemblekidneya) Multi-windowing committeefor multiple fine-grained representationEnMcGA NKidney0Kidney1Kidne y8ABackgroundDLadv4A averageSSegmentation modelDDiscriminatorL seg0/10/10/10/10/1Wi ndowed imageThresholdNormal izeCTA imageWindowed imageBackground VeinArteryTumorKidne ySb) Multi-condition GANfor shape constraintsSegmented GoundTruthCTA imageDLadv3DLadv2DLa dv0DLadv1McGANsVeinA rteryTumorKidneyc) Adversarial weighting ensemble for personalized fine fusionDs0s1Kidney0Ki dney1Kidney8 Ds8D w0w1w8*** Ensemblekidneya) Multi-windowing committeefor multiple fine-grained representationEnMcGA NKidney0Kidney1Kidne y8ABackgroundDLadv4A averageSSegmentation modelDDiscriminatorL seg0/10/10/10/10/1Wi ndowed imageThresholdNormal izeCTA imageWindowed imageBackground 0.39
英語(論文から抽出)日本語訳スコア
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
5 from the discriminator to encourage the segmented renal structures meeting their real shape conditions, thus improving the shape features extraction ability. 5 判別器から、実際の形状条件を満たす分節腎構造を奨励するため、形状の特徴抽出能力を向上させる。 0.80
3) Adversarial weighted Ensemble (AWE, Sec. 3)AWE(Adversarial weighted Ensemble, AWE, Sec。 0.84
2.3) utilizes the trained discriminator for dynamic ensemble weights, thus and balancing the representation preferences and providing the personalized ensemble results. 2.3) 動的アンサンブルの重み付けに訓練された識別器を使用し、表現の好みをバランスさせ、パーソナライズされたアンサンブル結果を提供する。 0.53
2.1 Multi-windowing committee for multiple fine-grained 2.1 多粒度マルチウィンドウ委員会 0.73
representation representation 0.85
Our MWC (Fig. 2(a)) divides CTA image to multiple narrow windows [4] and expends their distributions making the significant region and fine-grained pattern. MWC(図)。 2(a))は、CTA画像を複数の狭いウィンドウ[4]に分割し、その分布を重要な領域ときめ細かいパターンにする。 0.68
And then it fuse the segmentation superiorities from the distributions covered by multiple sub-windows, thus improving integrated segmentation quality. そして、複数のサブウィンドウで被覆された分布からセグメンテーションの優位性を解き、統合セグメンテーションの品質を向上する。 0.65
Windowing for fine-grained pattern. きめ細かいパターンのウィンドウ化。 0.81
The CTA image x is divided to multiple narrow windows with different window centers and widths. CTA画像xは、異なるウィンドウセンタと幅を持つ複数の狭いウィンドウに分割される。 0.83
Firstly, nine different windows are selected. まず、9つの異なるウィンドウが選択される。 0.68
We segment CTA images via k-means clustering [14] for c categories, in our experiment c = 5. 実験 c = 5 において、CTA 画像を k-平均クラスタリング [14] で c カテゴリに分割する。 0.83
Then, the mean CT values of these categories in our dataset are calculated and selected for three window centers c, in our experiment, {c0 = 1032.7834, c1 = 1150.0825, c2 = 1332.1959}. 次に、これらのカテゴリの平均CT値を計算し、3つのウィンドウセンターcに対して選択する。実験では、c0 = 1032.7834, c1 = 1150.0825, c2 = 1332.1959}。 0.71
We also define three default window widths {w0 = 256, w1 = 512, w2 = 768}, thus combining for nine sub-windows. また、3つのデフォルトウィンドウ幅 {w0 = 256, w1 = 512, w2 = 768} を定義する。 0.71
Then, the CTA image x is thresholded to remove irrelevant gray range and normalized to expand the interested distribution via windowing, thus making nine windowed images {x0, x1, ..., x8}: xi = max(min(x,cj− wk . そして、cta画像xは、無関係なグレー範囲を除去し、ウィンドウを介して関心のある分布を拡大するために正規化され、9つのウィンドウ画像 {x0, x1, ..., x8}: xi = max(min(x,cj− wk ) となる。 0.75
Finally, these images are used to train nine segmentation learners S(˙) which will learn the fine-grained representations on the distributions covered by these sub-windows. 最後に、これらの画像は9つのセグメンテーション学習者 s( ) を訓練するために使われ、これらのサブウィンドウによってカバーされる分布のきめ細かな表現を学ぶ。 0.62
2 ),cj + wk wk 2 ),cj + wk wk 0.74
2 )−(cj− wk 2 ) 2 )−(cj−wk2 ) 0.89
Summary of the advantages. 1) The CTA image is thresholded with different window centers and widths for small gray ranges and normalized to [0, 1], thus the irrelevant gray range will be removed and the interested distribution will be expended. 利点の概要。 1) cta画像は、異なるウィンドウセンタと、小さいグレー範囲の幅でしきい値化され、[0, 1]に正規化され、無関係なグレー範囲が除去され、興味のある分布が拡大される。 0.62
Therefore, these sub-windows will have significant regions and fine-grained patterns improving the segmentation quality. したがって、これらのサブウィンドウには重要な領域と細かなパターンがあり、セグメンテーションの品質が向上する。 0.49
2) The image in different narrow windows will have different significant regions, so our multiple learners trained on these sub-window images will learn the fine-grained representations on their covered distributions making segmentation superiorities. 2) 異なる狭いウィンドウ内の画像は、異なる重要な領域を持つので、これらのサブウィンドウイメージで訓練された複数の学習者は、その被覆分布上のきめ細かい表現を学習し、セグメンテーションの優位性を得る。 0.66
These superiorities are fused improving the final segmentation quality. これらの優位性は最終セグメンテーション品質を改善する。 0.74
2.2 Multi-condition GAN for shape constraints 2.2 形状制約のための多条件GAN 0.63
Our McGAN (Fig. mcgan (複数形 mcgans) 0.51
2(b)) utilizes multiple discriminators to provide the segmentation model shape constraints, thus encouraging the segmented structures meeting their real shape conditions, improving the shape feature extraction ability. 2(b))は、複数の判別器を用いて、セグメンテーションモデル形状制約を提供し、実際の形状条件を満たすセグメンテーション構造を奨励し、形状特徴抽出能力を向上させる。 0.73
McGAN for adversarial segmentation. McGAN for adversarial segmentation 0.67
In training stage, our McGAN inputs the real or segmented renal structures together with the CTA image into five discriminators resulting in a conditional GAN [12] for shape constraints of renal structures. 訓練段階において,本法では,CTA画像とともに腎組織を5つの識別器に入力し,腎構造の形状制約を条件付きGAN[12]とした。 0.83
The segmentation model S takes the DenseBiasNet [6] which セグメンテーションモデル S は DenseBiasNet [6] 0.52
英語(論文から抽出)日本語訳スコア
6 Y. He et al 6 Y! He et al 0.78
fuses the multi-receptive field features for the multi-scale feature representation ability. マルチスケールな特徴表現能力のために、マルチレセプティブなフィールド機能を融合する。 0.62
The discriminators {D0, ..., D4} follow the 3D version of the VGG-A [22] and activated by sigmoid function. 判別器 {D0, ..., D4} は、VGG-A[22]の3次元バージョンに従い、シグモノイド関数によって活性化される。
訳抜け防止モード: 判別器 { D0, ..., D4 } は VGG - A [ 22 ] の 3D バージョンに従う。 sigmoid 関数によって活性化されます
0.76
As shown in Fig 2 (b), it takes the original image x and the segmented S(xi)n or ground truth yn mask of each structure are input to discriminator to learn the shape constraint of each renal structure and the evaluation ability of segmentation quality. 図2(b)に示すように、各構造の原画像xと分割されたS(xi)n又は接地真理ynマスクを判別器に入力し、各腎構造の形状制約とセグメンテーション品質の評価能力を学習する。 0.79
The binary cross-entropy loss Lbce is calculated as the adversarial loss Ladvn of each structure: 各構造物の対向損失Ladvnとして二項クロスエントロピー損失Lbceを算出する。 0.76
Ladvn(θDn ) = Lbce(Dn(x, yn), 1) + Lbce(Dn(x, S(xi)n), 0). Ladvn(θDn ) = Lbce(Dn(x, yn), 1) + Lbce(Dn(x, S(xi)n), 0)。 0.81
(1) The segmentation model takes the windowed images xi as input and is optimized by the multi-class cross-entropy loss Lmce from the segmented results S(x) and labels y, together with the adversarial losses corresponding to renal structures from the discriminator. (1) セグメンテーションモデルは、ウィンドウ画像xiを入力として取り、セグメンテーション結果S(x)およびラベルyからの多クラスクロスエントロピー損失Lmceと、判別器からの腎構造に対応する逆損失とで最適化する。 0.81
Therefore, the hybrid segmentation loss is: Lbce(Dn(x, S(xi)n), 1), したがって、ハイブリッドセグメンテーション損失は Lbce(Dn(x, S(xi)n), 1) である。 0.69
Lseg(θS) = Lmce(S(xi), y) + λ Lseg(θS) = Lmce(S(xi), y) + λ 0.85
N(cid:88) (2) n(cid:88) (2) 0.81
n=0 where the λ is the weight to balance loss functions in this hybrid loss. n=0 ここで λ は、このハイブリッド損失における損失関数のバランスをとる重みである。 0.67
In our experiment, it is 0.01. 実験では0.01である。 0.84
The θS and θDn is the parameters of the segmentation model and discriminators. θS と θDn はセグメンテーションモデルと判別器のパラメータである。 0.81
As an ensemble model, narrow-window images are used to train nine McGANs which share their discriminators iteratively. アンサンブルモデルとして、狭窓画像を使用して、識別器を反復的に共有する9つのmcganを訓練する。
訳抜け防止モード: アンサンブルモデルとして、狭いウィンドウイメージが使用される 識別器を反復的に共有する9つのmcganを訓練する。
0.54
Summary of the advantages. During adversarial training, the discriminators learn to evaluate the similarity between the segmented structures’ shapes and real shapes. 利点の概要。 敵の訓練中、識別者は分割された構造物の形状と実際の形状の類似性を評価することを学ぶ。
訳抜け防止モード: 利点の概要。 敵の訓練中に 差別者は セグメント構造’の形状と実際の形状との類似性を評価する。
0.60
When optimizing the segmentation model, the real shapes will become the conditions encoded by the discriminators, so the adversarial loss will encourage the segmented structures to meet them improving the shape feature extraction ability of the segmentation model. セグメンテーションモデルを最適化する場合、実形状は識別器によって符号化された条件となり、逆損失はセグメンテーションモデルの形状特徴抽出能力を改善するためにセグメンテーション構造を満足させる。 0.83
2.3 Adversarial weighted ensemble for personalized fine fusion 2.3 個人化微細融合のための敵対的重み付けアンサンブル 0.57
Our AWE module (Fig. 当社のaweモジュール(図)。 0.65
2(c)) utilizes the trained discriminators from our McGAN to evaluate the segmentation quality of renal structures and generate the dynamic ensemble weights directed at the input image, thus bringing personalized fine ensemble process and balancing the representation preferences. 2(c))は,McGANの訓練した識別器を用いて腎構造物のセグメンテーション品質を評価し,入力画像に向けられた動的アンサンブル重みを生成し,パーソナライズされた微細アンサンブルプロセスと表現嗜好のバランスをとる。 0.77
Ensemble process of AWE. AWEのアンサンブルプロセス。 0.58
In testing stage, our AWE module fuses the results based on their segmentation quality, improving the ensemble results. テスト段階では、AWEモジュールはそのセグメンテーション品質に基づいて結果を融合し、アンサンブル結果を改善する。 0.69
Fig. 2 (c) illustrates the ensemble process of this module taking the kidney as an example. フィギュア。 2(c)は、腎臓を例にとるこのモジュールのアンサンブル過程を示す。 0.54
The segmented kidneys {kidney0, ..., kidney8} from the segmentation learners together with the original image x are putted into the trained discriminators for evaluation scores {s0, .., s8}. セグメンテーション学習者から得られたセグメンテーション腎臓 {kidney0, ..., kidney8} と元の画像 x とを訓練された判別器に配置して評価スコア {s0, ., s8} とする。 0.82
Then, these scores are normalized via (cid:80)9 for the ensemble weights directed at the input image. そして、これらのスコアは入力画像に向けられたアンサンブル重みに対して(cid:80)9を介して正規化される。 0.55
Finally, wi = these weights are used to weight the average ensemble enhancing the results: i=0 kidneyi ∗ wi. 最後に、wi = これらの重みは結果を強化する平均アンサンブルの重み付けに使われる: i=0 kidneyi ∗ wi。 0.65
ˆykidney = 1 9 シャイキドニー = 19 0.38
si(cid:80)8 si(cid:80)8 0.88
Summary of the advantages. The trained discriminators evaluate the segmentation qualities of renal structures, so we utilize them for dynamic ensemble weights directed at input images. 利点の概要。 訓練された判別器は腎構造のセグメンテーション特性を評価し, 入力画像に向けた動的アンサンブル重みに利用した。 0.63
Therefore, the incorrect weights are avoided, and the ensemble results are effectively enhanced. これにより、誤重みが回避され、アンサンブル効果が効果的に向上する。 0.55
n=0 sn n=0 sn 0.71
英語(論文から抽出)日本語訳スコア
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
7 3 Materials and Configurations. 7 3つの材料と構成。 0.78
Dataset. 122 patients with renal cancer treated with LPN are enrolled in this study. データセット。 LPNを投与した腎癌の122例を本研究に登録した。 0.71
The kidney region of interests (ROIs) with tumors on their CTA images were extracted as the dataset in our experiments. CTA画像上腫瘍を呈する腎領域(ROIs)を,本実験のデータセットとして抽出した。 0.72
Their pixel sizes are between 0.47mm and 0.74mm, the slice thickness is 0.5mm and the image size is 150 × 150 × 200. ピクセルサイズは0.47mmから0.74mm、スライス厚は0.5mm、画像サイズは150×150×200である。 0.70
Five kidney tumor subtypes including clear renal cell carcinomas, papillary, chromophobe, angiomyolipoma and eosinophilic adenoma are included in this dataset resulting in large heterogeneity and anatomical variation, and the tumor volume is vary up to 300 times. 本データセットには、明確な腎細胞癌、乳頭癌、クロモフォブ、血管筋脂肪腫、好酸球性腺腫を含む5種類の腎腫瘍サブタイプが含まれており、大きな異質性および解剖学的変異をもたらし、腫瘍容積は最大300倍まで変化する。
訳抜け防止モード: クリア腎細胞癌,乳頭癌を含む5種類の腎腫瘍亜型 このデータセットにはクロモフォベ、血管筋脂肪腫、好酸球性腺腫が含まれており、大きな異質性および解剖学的変異をもたらす。 腫瘍の体積は300倍にもなります
0.70
The kidney, tumor, vein and artery on these images are fine labeled. これらの画像の腎臓、腫瘍、静脈、動脈は細いラベルが付けられている。 0.66
Comparison settings. To evaluate the superiority of our framework, we perform extensive experiments. 比較設定。 フレームワークの優位性を評価するため,大規模な実験を行った。 0.70
The V-Net [11], 3D U-Net [2], Res-U-Net [9], Kid-Net [23], DenseBiasNet [6] and the ensemble model, VFN [24], are trained as the comparison models. V-Net [11], 3D U-Net [2], Res-U-Net [9], Kid-Net [23], DenseBiasNet [6], アンサンブルモデルであるVFN [24] を比較モデルとして訓練する。 0.88
For fair comparison, VFN also takes DenseBiasNet as the segmentation learners. 公平な比較として、VFNはDenseBiasNetをセグメンテーション学習者としている。 0.56
The Dice coefficient (DSC) [%], mean surface voxel distance (MSD) are used to evaluate the coincidence of the region and surface. Dice係数(DSC)[%]、平均表面ボクセル距離(MSD)を用いて、領域と表面の一致を評価する。
訳抜け防止モード: Dice係数(DSC )[ % ]、平均表面ボクセル距離(MSD )を用いる 地域と表面の一致を評価するためです
0.66
Besides, the mean centerline voxel distance (MCD) is used to evaluate the coincidence of the artery topology following [7]. また,[7]に続く動脈トポロジーの一致を評価するために, 平均中心軸ボクセル距離(MCD)が用いられる。 0.77
Implementation. During training, 150 × 150 × 128 patches are cropped in the z-axis so that the dataset is enlarged and the GPU memory is saved. 実装。 トレーニング中、150×150×128パッチがz軸で収穫され、データセットが拡大され、GPUメモリが保存される。 0.61
Each model is optimized by Adam [8] with the batch size of 1, learning rate of 1 × 10−4 and iterations of 40000. 各モデルは、1 × 10−4 の学習率と 40000 の反復率で adam [8] によって最適化される。 0.75
The 5-fold cross-validation is performed for comprehensive evaluation. 総合評価のために5倍のクロスバリデーションを行う。 0.57
All methods are implemented with PyTorch and trained on NVIDIA TITAN Xp GPUs. すべてのメソッドはPyTorchで実装され、NVIDIA TITAN Xp GPUでトレーニングされている。 0.65
4 Results and analysis Our EnMcGAN brings the fine-grained pattern and significant regions, embeds shape priori knowledge into segmentation model and bridge the representation preferences caused by large anatomical variations thus achieving the excellent 3D complete renal structures segmentation. 4 結果と分析 私たちのenmcganは細粒度パターンと有意な領域をもたらし、形状事前知識をセグメンテーションモデルに埋め込み、大きな解剖学的変異によって引き起こされる表現嗜好を橋渡しし、優れた3d完全腎構造セグメンテーションを実現します。
訳抜け防止モード: 4 結果と分析 EnMcGANはきめ細かいパターンと重要な領域をもたらします。 形状事前知識をセグメンテーションモデルに組み込み、大きな解剖学的変異に起因する表現嗜好をブリッジすることで、優れた3D完全腎構造セグメンテーションを実現する。
0.76
In this part, we will thoroughly evaluate and analyze the effectiveness of our proposed EnMcGAN: 1) The quantitative evaluation, qualitative evaluation and the ROC and PR curves in comparative study (Sec. 本稿では,提案するEnMcGANの有効性を徹底的に評価し,解析する。 1) 比較研究における定量的評価,質的評価,ROCおよびPR曲線について検討する(Sec。 0.82
4.1) will show the superiorities of our framework compared with other models. 4.1は他のモデルと比較してフレームワークの優位性を示す。 0.62
2) The ablation study (Sec. 2)アブレーション研究(Sec。 0.67
4.2) will demonstrate the contribution of each our innovation in our framework. 4.2) フレームワークにおける各イノベーションの貢献を示す。 0.71
3) The the performances of each segmentation learner and the number of fused learners will be analysed in framework analysis (Sec. 3)各セグメンテーション学習者の性能と融合学習者数をフレームワーク分析(sec)で解析する。 0.69
4.3). 4.1 Comparative study shows superiority 4.3). 4.1 比較研究は優越性を示している 0.63
Quantitative evaluation. As shown in Tab. 定量的評価。 タブに示すように。 0.70
1, our proposed framework achieves the state-of-the-art performance. 提案フレームワークは,最先端のパフォーマンスを実現する。 0.58
In our EnMcGAN, the artery achieves 89.0% DSC, 1.66 MCD and 0.69 MSD which will strongly support the perfusion regions EnMcGANでは89.0% DSC, 1.66 MCD, 0.69 MSDを達成し, 灌流領域を強く支持する。 0.76
英語(論文から抽出)日本語訳スコア
8 Y. He et al 8 Y! He et al 0.78
Table 1. Evaluation on renal structures reveal powerful performance of our framework. 表1。 腎構造の評価は, 枠組みの強力な性能を示す。 0.76
The ’En’ means the method is the ensemble learning model. は、その方法がアンサンブル学習モデルであることを意味する。 0.64
DSC MSD DSC DSC MSD DSC 0.85
MSD DSC Kidney MSD DSC 腎臓 0.80
Method Mean DSC 77.9±7.8 94.1±2.3 1.17±0.72 67.5±26.8 66.9±14.8 4.57±6.35 83.0±8.2 3.21±2.66 2.03±2.81 V-Net [11] 65.4±20.8 2.41±1.60 80.5±9.9 1.93±1.06± 1.30±1.28 77.5±12.2 91.9±10.9 1.11±0.60 72.1±26.3 3D U-Net [2] 92.5±3.8 1.63±0.95 51.2±29.7 13.02±16.73 63.4±17.7 3.00±1.73 81.9±6.1 2.95±2.00 1.91±2.00 72.2±7.9 Res-U-Net [9] 91.0±11.5 1.49±1.14 69.4±23.2 57.2±21.8 3.70±2.71 73.9±12.9 3.76±2.35 1.91±1.94 72.9±11.1 Kid-Net [23] 80.0±7.1 71.8±14.8 2.13±1.81 87.1±6.5 2.00±1.18 0.97±0.85 DenseBiasNet [6] 94.1±2.4 1.31±0.87 67.0±26.9 94.3±2.2 1.47±0.76 66.2±27.0 8.50±12.16 70.3±16.3 3.07±2.39 88.5±5.6 1.36±0.64 0.53±0.46 80.0±8.5 VFN (En) [24] 95.2±1.9 0.94±0.55 76.5±22.9 5.18±7.11 77.7±12.1 1.38±0.95 89.0±6.8 1.66±0.89 0.69±0.66 84.6±6.7 Ours (En) 方法 Mean DSC 77.9±7.8 94.1±2.3 1.17±0.72 67.5±26.8 66.9±14.8 4.57±6.35 83.0±8.2 3.21±2.66 2.03±2.81 V-Net [11] 65.4±20.8 2.41±1.60 80.5±9.9 1.93±1.06± 1.30±1.28 77.5±12.2 91.9±10.9 1.11±0.60 72.1±26.3 3D U-Net [2] 92.5±3.8 1.63±0.95 51.2±29.7 13.02±16.73 63.4±17.7 3.00±1.73 81.9±6.1 2.95±2.00 1.91±2.00 72.2±7.9 Res-U-Net [9] 91.0±11.5 1.49±1.14 69.4±23.2 57.2±21.8 3.70±2.71 73.9±12.9 3.76±2.35 1.91±1.94 72.9±11.1 Kid-Net [23] 80.0±7.1 71.8±14.8 2.13±1.81 87.1±6.5 2.00±1.18 0.97±0.85 DenseBiasNet [6] 94.1±2.4 1.31±0.87 67.0±26.9 94.3±2.2 1.47±0.76 66.2±27.0 8.50±12.16 70.3±16.3 3.07±2.39 88.5±5.6 1.36±0.64 0.53±0.46 80.0±8.5 VFN (En) [24] 95.2±1.9 0.94±0.55 76.5±22.9 5.18±7.11 77.7±12.1 1.38±0.95 89.0±6.8 1.66±0.89 0.69±0.66 84.6±6.7 Ours (En) 0.50
7.01±6.36 5.22±6.12 7.63±7.07 8.51±8.70 7.01±6.36 5.22±6.12 7.63±7.07 8.51±8.70 0.20
Artery MCD MSD DSC 動脈MCD MSD DSC 0.79
±std Tumor Vein ±std 腫瘍 静脈 0.60
MSD estimation and the arterial clamping position selection. MSD 動脈閉塞位推定と動脈閉塞位置選択 0.77
The kidney gets 95.2% DSC and 0.94 MSD, the tumor gets 76.5% DSC and 5.18 MSD, and the vein gets 77.7% DSC and 1.38 MSD which will provide operation guidance. 腎臓は95.2%のDSCと0.94のMSD、腫瘍は76.5%のDSCと5.18のMSD、静脈は77.7%のDSCと1.38のMSDで手術指導を行う。 0.68
The ensemble model, VFN, fuses the 2D information in different perspectives, achieving good performance on artery. アンサンブルモデルであるVFNは、異なる視点で2D情報を融合し、動脈の良好な性能を達成する。 0.65
However, similar to the V-Net, 3D U-Net, Res-U-Net, DenseBiasNet, it has poor performance on veins and tumors owing to the low contrast and the complex shapes. しかし、V-Net、3D U-Net、Res-U-Net、DenseBiasNetと同様に、低コントラストと複雑な形状のため、静脈や腫瘍のパフォーマンスは低い。 0.74
Fig. 3. Our proposed framework has powerful visual superiority which will provide visual guidance for surgery. フィギュア。 3. 提案フレームワークは,手術の視覚的指導を提供する強力な視覚的優位性を有する。 0.65
Case 1 is a left kidney with angiomyolipoma and the case 2 is a right kidney with clear renal cell carcinomas. 症例1は左腎に血管筋脂肪腫があり,症例2は腎細胞癌が明瞭な右腎である。 0.83
Qualitative evaluation. As demonstrated in Fig 3, our proposed framework has great visual superiority which will provide visual guidance for surgery. 質的な評価。 fig 3 で示されたように,提案フレームワークは手術の視覚的な指導を提供する優れた視覚上優位性を有する。 0.68
Compared with the ground truth, our EnMcGAN enhances the contrast and utilizes the shape constraints from discriminator improving the integrity of tumors and the segmentation quality of veins. その結果,EnMcGANは造影コントラストを増強し,腫瘍の完全性や静脈の分節品質を向上させる識別器の形状制約を利用した。 0.75
The Kid-Net and 3D U-Net have blur segmentation on small artery branches, and the DenseBiasNet, Res-U-Net, V-Net and VFN have serious under-segmentation because of the low contrast, complex shape and large anatomical variation in our CRS segmentation task. また, DenseBiasNet, Res-U-Net, V-Net, VFNは低コントラスト, 複雑な形状, CRSセグメンテーションタスクの解剖学的変化により, 重度の低セグメンテーションを行う。 0.63
ROC curves As shown in Fig 4, the ROC curve of our EnMcGAN covers the other comparison methods which means our proposed method has more powerful performance in each segmented renal structure. ROC曲線 図4に示すように、EnMcGANのROC曲線は、他の比較法をカバーしている。
訳抜け防止モード: ROC曲線 図4に示すように、EnMcGANのROC曲線は、他の比較法をカバーしている。 つまり 提案法は 腎の分節構造に より強力な性能を持つ
0.84
Due to the class imbalance in our task, the true positive rate will rise rapidly when plotting the ROC curve. 我々の作業におけるクラス不均衡のため、ROC曲線をプロットすると真の正の率が急速に上昇する。 0.75
For better demonstration, we show the ROC curves with a true positive rate より良い実演のために、正の正の率でROC曲線を示す。 0.74
英語(論文から抽出)日本語訳スコア
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
9 Fig. 4. 9 フィギュア。 4. 0.71
The ROCs show that our EnMcGAN has higher segmentation accuracy than other comparison methods in our renal structures. ROCは,EnMcGANが他の腎構造との比較法よりも高いセグメンテーション精度を示した。 0.82
between 0.8 and 1 in artery and kidney, and between 0.5 and 1 in vein and tumor. 動脈と腎臓では0.8から1、静脈と腫瘍では0.5から1。 0.85
4.2 Ablation study shows improvements of the innovations 4.2 アブレーション研究によるイノベーションの改善 0.84
Table 2. The ablation study analyses the contributions of our innovations. 表2。 アブレーション研究はイノベーションの貢献を分析します。 0.70
McGAN MWC AWE mcgan (複数形 mcgans) 0.37
DSC(%)±std DSC(%)±std 0.99
Artery AVG (cid:88) (cid:88) (cid:88) 動脈 AVG (cid:88)(cid:88) 0.78
(cid:88) (cid:88) (cid:88)(cid:88) 0.74
Tumor Kidney 94.1±2.4 67.0±26.9 71.8±14.8 87.1±6.5 80.0±7.1 94.7±2.4 75.0±22.7 72.8±12.8 87.6±8.1 82.5±7.1 94.8±2.2 75.8±21.1 75.3±12.9 89.3±4.7 83.8±6.7 (cid:88) 95.2±1.9 76.5±22.9 77.7±12.1 89.0±6.8 84.6±6.7 腫瘍 Kidney 94.1±2.4 67.0±26.9 71.8±14.8 87.1±6.5 80.0±7.1 94.7±2.4 75.0±22.7 72.8±12.8 87.6±8.1 82.5±7.1 94.8±2.2 75.8±21.1 75.3±12.9 89.3±4.7 83.8±6.7 (cid:88) 95.2±1.9 76.5±22.9 77.7±12.1 89.0±6.8 84.6±6.7 0.44
Vein The innovations in our framework brings significant enhancements. 静脈 私たちのフレームワークの革新は大きな改善をもたらします。 0.45
Our McGAN takes the shape constraints and improves 8.0% DSC on tumor compared with the basic segmentation network (DenseBiasNet). 我々のMcGANは、基本セグメンテーションネットワーク(DenseBiasNet)と比較して、腫瘍の形状制約を考慮し、8.0%のDSCを改善する。 0.59
When taking our MWC with the majority voting [1], the vein and artery achieve 2.5% and 1.7% additional DSC improvement owing the fine-grained pattern in narrow windows. 投票率[1]でMWCを採点すると、狭い窓の細粒度パターンのため、静脈と動脈は2.5%、動脈は1.7%改善した。
訳抜け防止モード: MWCを多数決で受け入れる場合 [1 ] 静脈と動脈は、狭い窓の細粒度パターンにより、2.5%と1.7%のDSCの改善が達成される。
0.73
When adding our AWE module, the DSC of the tumor and vein are increased by 0.7% and 2.4% due to its dynamic ensemble weights directed at the input image. AWEモジュールを追加すると、入力画像に向けられたダイナミックアンサンブル重量により腫瘍と静脈のDSCが0.7%および2.4%増加する。 0.76
Totally, compared with the basic network, our EnMcGAN enhances the 1.1%, 9.5%, 5.9% and 1.9% DSC in kidney, tumor, vein and artery. 基本ネットワークと比較して、EnMcGANは腎臓、腫瘍、静脈、動脈の1.1%、9.5%、5.9%、および1.9%のDSCを増強する。 0.60
4.3 Framework analysis 4.3 フレームワーク分析 0.73
Segmentation learners analysis. セグメンテーション学習者分析。 0.74
As illustrated in Fig 5, two conclusions will be summarized: 1) The learners have segmentation superiorities in different narrow-window images which have different salient regions. 図5に示すように、1)学習者は、異なるサルエント領域を持つ異なる狭窓画像において、セグメンテーション優位である。
訳抜け防止モード: 図5に示すように 2つの結論をまとめます 1) 学習者は, 異なる領域の狭窓画像において, セグメンテーションに優れる。
0.73
For example, when c1w2, the learner achieves significant performance on artery (88.0%), but it has poor performance on tumor (72.3%). 例えば、c1w2の場合、学習者は動脈(88.0%)に顕著な性能を発揮するが、腫瘍(72.3%)に乏しい。 0.70
The c0w2 has ordinary performance (85.4%) on artery, but it achieves the highest DSC (77.4%) on tumor. c0w2は動脈の通常の機能(85.4%)を持つが、腫瘍のdscが最も高い(77.4%)。 0.71
2) Fusing ROC CurvesArteryTumorFal se positive rateFalse positive rateVeinKidneyTrue positive rateFalse positive rateFalse positive rate 2)ふたたび roc曲線(arterytumfalse positive ratefalse positive rateveinkidney true positive ratefalse positive ratefalse positive ratefalse positive ratefalse 0.69
英語(論文から抽出)日本語訳スコア
10 Y. He et al 10 Y! He et al 0.78
the segmentation superiorities of the learners will improve the whole segmentation quality which higher than the quality of each learner. 学習者のセグメンテーション優位性は,各学習者のセグメンテーション品質よりも高いセグメンテーション品質を向上させる。 0.78
Our EnMcGAN achieves 95.2%, 76.5%, 77.7% and 89.0% DSC on kidney, tumor, vein and artery which are higher than the best learners of renal structures (94.9%, 77.4%, 74.9% and 88.0%). 我々のenmcganは、腎臓、腫瘍、静脈、動脈において95.2%、76.5%、77.7%、89.0%のdscを達成し、腎構造の最良の学習者(94.9%、77.4%、74.9%、88.0%)よりも高い。
訳抜け防止モード: EnMcGANは95.2%、76.5%、77.7%を達成する また、腎臓、腫瘍、静脈、動脈のDSCは89.0%(94.9%)である。 77.4 % , 74.9 % and 88.0 % ) .
0.77
Fig. 5. The learners have segmentation superiorities in different narrow-window images. フィギュア。 5. 学習者は、異なる狭窓画像においてセグメンテーション優位である。 0.62
The heatmaps show the DSC of the learners on the renal structures. ヒートマップは、腎構造について学習者のdscを示す。 0.73
Amount of fused learners analysis. 融合学習者分析の量です 0.74
As shown in Fig 6, our with the amount of the fused learners trained in different sub-windows increasing, the ensemble accuracy will increase. 図6に示すように、異なるサブウィンドウでトレーニングされた融合学習者の数が増加するにつれて、アンサンブル精度が向上します。 0.66
We rank the trained segmentation learners in different sub-windows, and fuse them start from the best via our AWE strategy. 訓練されたセグメンテーション学習者は、異なるサブウィンドウでランク付けし、AWE戦略を介してベストからスタートする。 0.67
It illustrate the characteristic in two aspect: 1) Overall, with the amount of the fused learners increasing, the average ensemble performance is increasing because more segmentation preferences are integrated into the model. 1) 全体として, 融合学習者の数が増えるにつれて, セグメンテーションの嗜好がモデルに組み込まれるため, 平均アンサンブル性能が向上している。 0.67
2) The renal structures has different sensitivity to the increasing of the learners. 2) 腎構造は, 学習者の増加に対する感受性が異なる。 0.83
The performance of the kidney is almost unchanged because it has relatively large volume and wide gray range. 腎臓の性能は、比較的大きな体積と広い灰色の範囲を持つため、ほとんど変化しない。 0.73
The performance of tumor is increasing and decreasing, because it is sensitive to variation of window width and center. 腫瘍は窓幅や中心のばらつきに敏感であるため, 腫瘍のパフォーマンスは増加し, 低下している。 0.76
When the learner trained in the bad sub-window of tumor fused into the ensemble model, it will become the noise which will weaken the performance. 腫瘍の悪いサブウィンドウで訓練された学習者がアンサンブルモデルに融合すると、性能が低下するノイズとなる。 0.62
5 Conclusion In this paper, we equips adversarial learning with ensemble segmentation models, and propose the EnMcGAN, the first 3D CRS segmentation model, for technical support of LPN. 5 結論 本稿では,アンサンブルセグメンテーションモデルと逆学習を併用し,最初の3次元crsセグメンテーションモデルであるenmcganを提案する。
訳抜け防止モード: 5 結論 本稿では,アンサンブルセグメンテーションモデルを用いて,逆学習を実現する。 初の3次元crsセグメンテーションモデル enmcgan を提案しました lpnの技術支援のため。
0.70
1)Our multi-window committee divides CTA image into narrow windows with different window centers and widths enhancing the contrast and making fine-grained pattern, and constructs the ensemble model based on these narrow windows fusing the segmentation superiorities on different covered distributions. 1) マルチウィンドウ委員会は, cta画像を異なる窓中心と幅の異なる狭い窓に分割し, コントラストを強化し, 細粒度パターンを作成する。
訳抜け防止モード: 1) マルチウィンドウ委員会は, CTA画像を異なる窓中心と幅の狭い窓に分割し, コントラストを高め, きめ細かいパターンを作る。 そして、これらの狭いウィンドウをベースとしたアンサンブルモデルを構築し、異なる被覆分布上のセグメンテーション優位性を融合させる。
0.71
Fig. 6. With the amount of the fused learners increasing, the ensemble DSC will increase, and the structures have different sensitivity to the increasing of the learners. フィギュア。 6. 融合学習者の増加に伴い、アンサンブルdscは増加し、構造は学習者の増加に対する感受性が異なる。 0.63
w0w1w2KidneyTumorVei nArtery5060708090100 c2c1c0w0w1w2w0w1w2w0 w1w294.494.594.394.5 94.794.394.994.894.6 75.169.561.872.975.3 70.877.472.375.972.4 74.358.572.174.174.5 74.674.973.069.385.7 84.486.186.682.685.4 88.083.6100959085807 5123456789Improving with learner amount increasingThe performance of the fused learner amountLearner amountDSC w0w1w2KidneyTumorVei nArtery5060708090c2c 0w0w2w0w0w1w2w0w1w29 4.494.594.394.594.79 4.394.994.894.675.16 9.561.872.975.370.87 7.472.375.9774.358.5 72.174.174.574.674.9 73.069.385.784.486.1 86.682.685.488.083.6 10085.61008580807575 12456789 0.12
英語(論文から抽出)日本語訳スコア
3D Complete Renal Structures Segmentation 3次元完全腎構造セグメンテーション 0.78
11 2)Our multi-condition GAN utilizes the shape constraints of adversarial losses to encourage the segmented renal structures being consistent with their real shape, thus segmentation will tend to extract the features that matches the priori shape. 11 2) マルチコンディションganは, 対向的損失の形状制約を利用して, 分画腎構造が実際の形状と整合することを促進し, 先行形状に適合する特徴を抽出する傾向がみられた。 0.82
3)Our adversarial weighted ensemble module uses the trained discriminator to score the quality of each structure from each learner for dynamic ensemble weights, enhancing the ensemble results. 3)我々の対向重み付きアンサンブルモジュールは,訓練された識別器を用いて,各学習者から各構造質を動的アンサンブル重みにスコアし,アンサンブル結果を高める。 0.71
Extensive experiments with promising results reveal powerful 3D CRS segmentation performance and significance in renal cancer treatment. 腎癌治療における3次元CRSセグメンテーション性能と意義について検討した。
訳抜け防止モード: 強力な3次元crsセグメンテーション性能を実証する有望な実験 腎癌治療における 重要な役割です
0.65
Acknowledgements. This research was supported by the National Natural Science Foundation under grants (31571001, 61828101, 31800825), Southeast University-Nanjing Medical University Cooperative Research Project (2242019K3DN08) and Excellence Project Funds of Southeast University. 承認。 この研究は、国立自然科学財団(31571001, 61828101, 31800825)、東南アジア大学・南京医科大学協同研究プロジェクト(2242019K3DN08)、東南アジア大学の卓越プロジェクト基金によって支援された。
訳抜け防止モード: 承認。 この研究は国立自然科学財団の助成金(31571001, 61828101, 31800825 )によって支援された。 南京医科大学共同研究プロジェクト(2242019K3DN08) 東南アジア大学の優秀プロジェクト基金
0.69
We thank the Big Data Computing Center of Southeast University for providing the facility support on the numerical calculations in this paper. 本稿では,東南アジア大学のビッグデータコンピューティングセンターにおいて,数値計算の施設支援を提供してくれたことに感謝する。 0.68
References 1. Breiman, L.: Bagging predictors. 参考文献 1. Breiman, L.: 予測器を盗む。 0.73
Machine learning 24(2), 123–140 (1996) 2. 機械学習24(2)、123–140(1996)2。 0.83
C¸ i¸cek, ¨O., Abdulkadir, A., Lienkamp, S.S., Brox, T., Ronneberger, O.: 3d u-net: learning dense volumetric segmentation from sparse annotation. A., Lienkamp, S.S., Brox, T., Ronneberger, O.: 3d u-net: スパースアノテーションから高密度なボリュームセグメンテーションを学ぶ。 0.75
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 424–432. pp. 424–432. 0.78
Springer (2016) Springer (複数形 Springers) 0.61
3. Dietterich, T.G., et al : Ensemble learning. 3. Dietterich, T.G., et al : Ensemble Learning 0.85
The handbook of brain theory and 脳理論のハンドブックと 0.63
neural networks 2, 110–125 (2002) ニューラルネットワーク2,110-125(2002年) 0.65
4. Goldman, L.W. 4. ゴールドマン、LW。 0.69
: Principles of ct and ct technology. ctとct技術の原則。 0.57
Journal of nuclear medicine technology 35(3), 115–128 (2007) 原子力医学雑誌 技術35(3)、115-128(2007年) 0.74
5. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., Bengio, Y.: Generative adversarial nets. 5. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., Bengio, Y.: Generative adversarial nets。 0.90
In: Advances in neural information processing systems. in: 神経情報処理システムの進歩。 0.74
pp. 2672–2680 (2014) pp. 2672–2680 (2014) 0.85
6. He, Y., Yang, G., Chen, Y., Kong, Y., Wu, J., Tang, L., Zhu, X., Dillenseger, J.L., Shao, P., Zhang, S., et al : Dpa-densebiasnet: Semi-supervised 3d fine renal artery segmentation with dense biased network and deep priori anatomy. 6. He, Y., Yang, G., Chen, Y., Kong, Y., Wu, J., Tang, L., Zhu, X., Dillenseger, J.L., Shao, P., Zhang, S., et al : Dpa-densebiasnet : Semi-supervised 3d finerenal artery segmentation with dense biased network and deep priori anatomy。 0.88
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 139–147. pp. 139–147. 0.78
Springer (2019) Springer (複数形 Springers) 0.62
7. He, Y., Yang, G., Yang, J., Chen, Y., Kong, Y., Wu, J., Tang, L., Zhu, X., Dillenseger, J.L., Shao, P., Zhang, S., Shu, H., Coatrieux, J.L., Li, S.: Dense biased networks with deep priori anatomy and hard region adaptation: Semi-supervised learning for fine renal artery segmentation. 7. he, y., yang, g., yang, j., chen, y., kong, y., wu, j., tang, l., zhu, x., dillenseger, j.l., shao, p., zhang, s., shu, h., coatrieux, j.l., li, s.: dense biased networks with deep priori anatomy and hard region adaptation: semi-supervised learning for fine kidney artery segmentation
訳抜け防止モード: 7. He, Y., Yang, G., Yang, J. Chen, Y., Kong, Y., Wu, J. Tang, L., Zhu, X., Dillenseger, J.L. Shao, P., Zhang, S., Shu, H. Coatrieux, J.L., Li, S. : Dense biased network with Deep priori anatomy 硬部適応 : 細腎動脈分節化のためのセミ-教師付き学習
0.87
Medical Image Analysis 63, 101722 (2020) 医用画像解析63, 101722(2020年) 0.86
8. Kingma, D.P., Ba, J.L. 8. Kingma, D.P., Ba, J.L. 0.83
: Adam: A method for stochastic optimization. adam: 確率最適化の一手法。 0.60
In: ICLR 2015 : International Conference on Learning Representations 2015 (2015) In:ICLR 2015年 : international conference on learning representations 2015 (2015) 0.84
9. Li, J., Lo, P., Taha, A., Wu, H., Zhao, T.: Segmentation of renal structures for image-guided surgery. 9. li, j., lo, p., taha, a., wu, h., zhao, t.: 画像誘導手術のための腎構造の分割。
訳抜け防止モード: 9. Li, J., Lo, P., Taha, A. Wu, H., Zhao, T. : 画像ガイド下手術における腎構造の分離
0.86
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 454–462. pp. 454–462. 0.78
Springer (2018) Springer (複数形 Springers) 0.57
英語(論文から抽出)日本語訳スコア
12 Y. He et al 12 Y! He et al 0.78
10. Luc, P., Couprie, C., Chintala, S., Verbeek, J.: Semantic segmentation using ad- 10. Luc, P., Couprie, C., Chintala, S., Verbeek, J.: 広告を用いたセマンティックセグメンテーション 0.83
versarial networks. In: NIPS Workshop on Adversarial Training (2016) 汎用ネットワーク。 in: nips workshop on adversarial training (2016) 0.67
11. Milletari, F., Navab, N., Ahmadi, S.A., aaaaa: V-net: Fully convolutional neural networks for volumetric medical image segmentation. 11. Milletari, F., Navab, N., Ahmadi, S.A., aaaaa: V-net: ボリューム医療画像分割のための完全な畳み込みニューラルネットワーク。 0.85
In: 2016 Fourth International Conference on 3D Vision (3DV). 2016年:第4回3dビジョン国際会議(3dv)開催。 0.76
pp. 565–571 (2016) pp. 565–571 (2016) 0.85
12. Mirza, M., Osindero, S.: Conditional generative adversarial nets. 12. Mirza, M., Osindero, S.: Conditional generative adversarial nets 0.83
arXiv preprint arXiv プレプリント 0.83
arXiv:1411.1784 (2014) arXiv:1411.1784(2014 年) 0.55
13. Mosinska, A., Marquez-Neila, P., Kozi´nski, M., Fua, P.: Beyond the pixel-wise loss for topology-aware delineation. 13. mosinska, a., marquez-neila, p., kozi ́nski, m., fua, p.: 位相認識のためのピクセル単位の損失を超える。
訳抜け防止モード: 13. Mosinska, A., Marquez - Neila, P., Kozi ́nski M., Fua, P. : ピクセルを超えて -トポロジーの賢明な損失 気付いてる
0.80
In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In: IEEE Conference on Computer Vision and Pattern Recognitionの開催。 0.72
pp. 3136–3145 (2018) pp. 3136–3145 (2018) 0.85
14. Ng, H., Ong, S., Foong, K., Goh, P., Nowinski, W.: Medical image segmentation using k-means clustering and improved watershed algorithm. 14. ng, h., ong, s., foong, k., goh, p., nowinski, w.: k-meansクラスタリングと改善された流域アルゴリズムを用いた医用画像分割。 0.85
In: 2006 IEEE Southwest Symposium on Image Analysis and Interpretation. 2006年、IEEE Southwest Symposium on Image Analysis and Interpretation に参加。 0.80
pp. 61–65. pp. 61–65. 0.78
IEEE (2006) IEEE(2006年) 0.87
15. Nicolau, S., Soler, L., Mutter, D., Marescaux, J.: Augmented reality in laparoscopic 15. Nicolau, S., Soler, L., Mutter, D., Marescaux, J.:Augmented reality in laparoscopic 0.86
surgical oncology. Surgical oncology 20(3), 189–201 (2011) 外科的腫瘍学 外科腫瘍学20(3), 189–201(2011年) 0.73
16. Oktay, O., Ferrante, E., Kamnitsas, K., Heinrich, M., Bai, W., Caballero, J., Cook, S.A., De Marvao, A., Dawes, T., O‘Regan, D.P., et al : Anatomically constrained neural networks (acnns): application to cardiac image enhancement and segmentation. 16. Oktay, O., Ferrante, E., Kamnitsas, K., Heinrich, M., Bai, W., Caballero, J., Cook, S.A., De Marvao, A., Dawes, T., O‘Regan, D.P., et al : Anatomically constrained Neural Network (acnns): 心臓画像強調とセグメンテーションへの応用。 0.85
IEEE transactions on medical imaging 37(2), 384–395 (2017) ieee transactions on medical imaging 37(2), 384-395 (2017) 0.76
17. Petru, B., Elena, S¸., Dan, I., Klara, B., Radu, B., Constantin, D.: Morphological assessments on the arteries of the superior renal segment. 17. Petru, B., Elena, S s., Dan, I., Klara, B., Radu, B., Constantin, D.: 上腎動脈の形態学的評価 0.79
Surgical and radiologic anatomy 34(2), 137–144 (2012) 外科・放射線解剖34(2), 137-144(2012年) 0.76
18. Polikar, R.: Ensemble learning. 18. Polikar, R.: 学ぶこと。 0.81
In: Ensemble machine learning, pp. In: Ensemble Machine Learning, pp。 0.77
1–34. Springer 1–34. Springer 0.78
(2012) 19. (2012) 19. 0.85
Porpiglia, F., Fiori, C., Checcucci, E., Amparore, D., Bertolo, R.: Hyperaccuracy three-dimensional reconstruction is able to maximize the efficacy of selective clamping during robot-assisted partial nephrectomy for complex renal masses. porpiglia, f., fiori, c., checcucci, e., amparore, d., bertolo, r.: hyperaccuracy 3次元再構築は、複雑な腎塊に対するロボット支援部分腎切除術における選択的クランプの有効性を最大化することができる。 0.76
European urology 74(5), 651–660 (2018) ヨーロッパ尿道 74(5), 651-660 (2018) 0.69
20. Shao, P., Qin, C., Yin, C., Meng, X., Ju, X., Li, J., Lv, Q., Zhang, W., Xu, Z.: Laparoscopic partial nephrectomy with segmental renal artery clamping: technique and clinical outcomes. 20. shao, p., qin, c., yin, c., meng, x., ju, x., li, j., lv, q., zhang, w., xu, z.: laparoscopic partial nephrectomy with segmental renal artery clamping: technique and clinical outcomes.
訳抜け防止モード: 20. Shao, P., Qin, C., Yin, C. Meng, X., Ju, X., Li, J. Lv, Q., Zhang, W., Xu, Z. : 分節腎動脈クランプによる腹腔鏡下部分腎摘出術 : 術式と臨床成績
0.86
European urology 59(5), 849–855 (2011) ヨーロッパ尿道 59(5), 849-855 (2011) 0.71
21. Shao, P., Tang, L., Li, P., Xu, Y., Qin, C., Cao, Q., Ju, X., Meng, X., Lv, Q., Li, J., et al : Precise segmental renal artery clamping under the guidance of dual-source computed tomography angiography during laparoscopic partial nephrectomy. 21. Shao, P., Tang, L., Li, Xu, Y., Qin, C., Cao, Q., Ju, X., Meng, X., Lv, Q., Li, J., et al : 腹腔鏡下部分腎摘出術を施行した。
訳抜け防止モード: 21. Shao, P., Tang, L., Li, P. Xu, Y., Qin, C., Cao, Q. Ju, X., Meng, X., Lv, Q. Li, J., et al : 腹腔鏡下部分腎摘出術における2回CTガイド下分節腎動脈クランプ法
0.81
European urology 62(6), 1001–1008 (2012) ヨーロッパ尿道 62(6), 1001–1008 (2012) 0.76
22. Simonyan, K., Zisserman, A.: Very deep convolutional networks for large-scale image recognition. 22. Simonyan, K., Zisserman, A.: 大規模な画像認識のための非常に深い畳み込みネットワーク。 0.82
In: ICLR 2015 : International Conference on Learning Representations 2015 (2015) In: ICLR 2015 : International Conference on Learning Representations 2015 (2015) 0.85
23. Taha, A., Lo, P., Li, J., Zhao, T.: Kid-net: Convolution networks for kidney vessels segmentation from ct-volumes. 23. Taha, A., Lo, P., Li, J., Zhao, T.: Kid-net: ct-volumesの腎臓血管分割のための畳み込みネットワーク。 0.83
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 463–471 (2018) pp. 463–471 (2018) 0.85
24. Xia, Y., Xie, L., Liu, F., Zhu, Z., Fishman, E.K., Yuille, A.L. 24. Xia, Y., Xie, L., Liu, F., Zhu, Z., Fishman, E.K., Yuille, A.L. 0.92
: Bridging the gap between 2d and 3d organ segmentation with volumetric fusion net. 体積核融合ネットによる2次元と3次元の臓器分割のギャップの橋渡し 0.68
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 445–453. pp. 445–453. 0.78
Springer (2018) Springer (複数形 Springers) 0.57
25. Zhang, S., Yang, G., Tang, L., Lv, Q., Li, J., Xu, Y., Zhu, X., Li, P., Shao, P., Wang, Z.: Application of a functional3-dimensio nal perfusion model in laparoscopic partial nephrectomy with precise segmental renal artery clamping. 25. zhang, s., yang, g., tang, l., lv, q., li, j., xu, y., zhu, x., li, p., shao, p., wang, z.: 腹腔鏡下部分腎摘出術における3次元灌流モデルの適用
訳抜け防止モード: 25. zhang, s., yang, g., tang, l. lv、q、li、j、xu、y zhu, x., li, p., shao, p. wang, z. : 精密な分画腎動脈閉塞を伴う腹腔鏡下部分腎摘出術における機能的3次元灌流モデルの適用
0.83
Urology 125, 98–103 (2019) Uurology 125, 98–103 (2019) 0.88
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。