論文の概要、ライセンス

# (参考訳) 骨盤骨分割法を用いたヒストグラムによるデータセット間のセグメンテーション性能の向上 [全文訳有]

Boosting Segmentation Performance across datasets using histogram specification with application to pelvic bone segmentation ( http://arxiv.org/abs/2101.11135v1 )

ライセンス: CC BY 4.0
Prabhakara Subramanya Jois, Aniketh Manjunath and Thomas Fevens(参考訳) 骨盤ctの正確な分割は骨盤疾患の臨床診断や患者の特発性股関節手術の計画に不可欠である。 デジタル医療のための深層学習の出現と進歩に伴い、このようなセグメンテーションタスクにはいくつかの方法論が提案されている。 しかし、低データシナリオでは、深層ニューラルネットワークのトレーニングに必要な大量のデータがないことは、重要な問題である。 本研究では,画像の声調分布の変調と深層学習に基づく手法を提案し,限られたデータで訓練されたネットワークの性能を高める。 この戦略は、ヒストグラム仕様によるテストデータの事前処理を含む。 この単純で効果的なアプローチは、スタイル転送手法と見なすことができる。 セグメンテーションタスクは、拡張BCE-IoU損失関数を使用して最適化されたEfficientNet-B0バックボーンを備えたU-Net構成を使用します。 この構成は、TCIA(がん画像アーカイブ)とVisible Human Projectの2つの公開CTデータセットから撮影した合計284枚の画像で検証されます。 ダイス係数とユニオンに対するインターセクションの平均性能は、それぞれ95.7%と91.9%であり、最先端の方法論と非常に競合するアプローチの有効性の強い証拠を与える。

Accurate segmentation of the pelvic CTs is crucial for the clinical diagnosis of pelvic bone diseases and for planning patient-specific hip surgeries. With the emergence and advancements of deep learning for digital healthcare, several methodologies have been proposed for such segmentation tasks. But in a low data scenario, the lack of abundant data needed to train a Deep Neural Network is a significant bottle-neck. In this work, we propose a methodology based on modulation of image tonal distributions and deep learning to boost the performance of networks trained on limited data. The strategy involves pre-processing of test data through histogram specification. This simple yet effective approach can be viewed as a style transfer methodology. The segmentation task uses a U-Net configuration with an EfficientNet-B0 backbone, optimized using an augmented BCE-IoU loss function. This configuration is validated on a total of 284 images taken from two publicly available CT datasets, TCIA (a cancer imaging archive) and the Visible Human Project. The average performance measures for the Dice coefficient and Intersection over Union are 95.7% and 91.9%, respectively, give strong evidence for the effectiveness of the approach, which is highly competitive with state-of-the-art methodologies.
公開日: Tue, 26 Jan 2021 23:48:40 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
BOOSTING SEGMENTATION PERFORMANCE ACROSS DATASETS USING HISTOGRAM ヒストグラムを用いたブースティングセグメンテーション性能アクロスデータセット 0.40
SPECIFICATION WITH APPLICATION TO PELVIC BONE SEGMENTATION 骨盤セグメンテーションへの適用による特定 0.38
1Department Prabhakara of Computer Science 2Department of Computer Science, University of Southern California, Los Angeles, USA {sp.subramanya, Email: 1部門 Prabhakara of Computer Science 2 Department of Computer Science, University of Southern California, Los Angeles, USA {sp.subramanya, Email: 0.76
and Software Engineering, Concordia University, Montr´eal, Canada v.m.aniketh}@gmail.com, and Software Engineering, Concordia University, Montr ́eal, Canada v.m.aniketh}@gmail.com 0.81
Subramanya Jois1, Aniketh Manjunath2, Thomas Fevens1 Subramanya Jois1, Aniketh Manjunath2, Thomas Fevens1 0.88
thomas.fevens@concor dia.ca thomas.fevens@concor dia.ca 0.59
1 2 0 2 n a J 6 2 ] V I . 1 2 0 2 n a j 6 2 ] v i である。 0.82
s s e e [ 1 v 5 3 1 1 1 . s s e e [ 1 v 5 3 1 1 . 0.78
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
ABSTRACT the clinical for CTs pelvic of segmentation Accurate is crucial the patient-specific planning diseases bone of and for diagnosis pelvic deep advancements the emergence and of learnhip surgeries. ABSTRACT, CTs pelvic of segmentation Accurate は, 患者固有の計画疾患の骨であり, 診断のための骨盤の進展, 学習手術の進展に不可欠である。 0.83
With ing for digital healthcare, several methodologies have been proposed of the scenario, in tasks. ing for digital healthcareでは、タスクのシナリオについていくつかの方法論が提案されている。 0.59
segmentation such for lack But low data a signifia train to needed data abundant is a Deep Neural Network a methodology In bottle-neck. 不足のためのセグメンテーションしかし、必要なデータにシグニフィアの列車は、深層ニューラルネットワークの方法論ボトルネックです。 0.63
propose cant this work, we based on modulation of image tonal distributions learning to boost and deep the performance of networks trained on limited The strategy data. 本研究は,限られた戦略データに基づいて訓練されたネットワークの性能を高めるために,画像音声分布の変調に基づいて学習する。 0.77
through histogram specification. ヒストグラムの仕様で 0.59
involves pre-processing of test data style as viewed can approach simple This be effective a yet transconfiguration a U-Net uses The fer methodology. u-net が fer 方法論を使っている場合、テストデータスタイルを事前に処理することで、シンプルにアプローチできる。 0.65
segmentation task augmented with an EfficientNet-B0 backbone, optimized using an BCE-IoU loss function. BCE-IoU損失関数を使って最適化されたEfficientNet-B0バックボーンで強化されたセグメンテーションタスク。 0.59
This configuration is validated on total of a available CT datasets, TCIA (a publicly from two 284 images taken imaging archive) and the Visible Human Project. この構成は、利用可能なCTデータセット、TCIA(2つの284枚の画像のアーカイブから公開されている)、および可視人間のプロジェクトの合計で検証されます。 0.70
The average cancer Intersection and performance measures for the Dice coefficient over strong give Union are for 95.7% and 91.9%, evidence respectively, the competitive with highly is approach, which the of effectiveness state-of-the-art methodologies. 強い利得ユニオンに対するDice係数の平均的ながんインターセクションとパフォーマンス測定は、それぞれ95.7%と91.9%であり、高い競争力を持つ証拠は、最先端の手法によるアプローチである。 0.71
bone Index Terms— Pelvic 骨 Index Terms - Pelvic 0.85
pre-processing, pre-processing 0.77
segmentation, data セグメンテーション データ 0.57
histogram specification, U-Net, fine-tuning. Histogram仕様、U-Net、微調整。 0.64
population, INTRODUCTION 1. in the injuries increase incidence of pelvic to the In recent years, due [1], pelvic bone diseases within the agfrom traffic-related accidents (CT) tomography computed access sufficient ing to and automated pelvic bone segmentation in CT has gained conimaging, segmentation assist The prominence. 人口 人口 説明1.近年の骨盤損傷の発生率の増加 [1]により、交通事故(CT)断層撮影による骨盤骨疾患は十分なアクセスを算出し、CTにおける骨盤骨分割の自動化が画像化され、セグメント化が注目されています。 0.72
physicians results in siderable surgical help the early detection planof pelvic injury and expedite ning the complications caused by pelvic fractures [2]. 医師は、骨盤骨折の早期発見計画と骨盤骨折による合併症の迅速化に苦慮する外科的支援を行う([2])。 0.68
In and reduce appear surface the bone marrow and bone like structures CT data, as low and high densities to their regions due dark and bright compared to the surrounding tissues. inおよびreduceは、骨髄および骨様構造ctデータで、周囲の組織と比較して暗く明るいため、その領域の密度が低く高い。 0.57
the variations in image However, given quality between different CT datasets, distinguishing bone structures ercumbersome becomes from the to leads and background image issues outputs. 画像のバリエーション しかし、異なるCTデータセット間の品質が与えられた場合、骨構造を区別する ercumbersome は、to鉛と背景画像の出力から生じる。 0.76
segmentation roneous for a These indicate a need the effective methodology for simple yet solution to develop a novel segmentation accurate of pelvic bones from varying CT data. 骨の分節は,CTデータから骨の分節の精度を向上するためには, 単純かつ有効な方法が必要である。 0.64
Contribution paper: this The key novelties this work are as follows: † supported NSERC Grants RGPIN 04929 寄稿論文: この作品の主な特徴は次のとおりである: s support nserc grants rgpin 04929 0.64
by Mitacs Accelerate and RGPIN 06785, Canada. によって Mitacs Accelerate および RGPIN 06785、カナダ。 0.89
Project-IT20604 プロジェクトIT20604 0.55
This work was and of この作品は そして ですから 0.61
of TCIA (a1) ですから CIA (a1) 0.68
VHBD (a1) and (b1) – from TCIA [3] VHBD (a1) と (b1) – TCIA [3] から。 0.90
Fig. 1: images フィギュア。 1:画像 0.61
illustrate the and VHBD [4], VHBD [4]を例示します。 0.67
(b1) segmentation respectively. (b1)セグメンテーション。 0.64
outputs, for input 出力。 ですから 入力 0.65
2. 1. of an introduction ited data, for high boosting model histogram specification approach The deferred exact proposed method. 2. 1. 高ブースティングモデルヒストグラム仕様アプローチのための導入イットデータの遅延正確な提案方法。 0.79
illustrates the encoder-decoder accuracy performance 例示します エンコーダ・デコーダの精度性能 0.61
segmentation on unseen unseenのセグメンテーション 0.67
details the of results the of 詳細は? 結果が The of ~ 0.65
are trained network, pelvic of data by は 訓練されたネットワーク データの骨盤 0.69
on bones employing lim- until 骨を使って リム それまで 0.59
Sec. 3.3. Fig. Sec。 3.3. フィギュア。 0.64
1 2. PRIOR ART has literature Recent for seen many segmentation applications the from CT pelvis of the imaging such as Traditional methods data. 1 2. 先行技術は、従来の手法データなど、画像のct骨盤からの多くのセグメンテーション応用で最近の文献を持っている。 0.80
region and thresholding growth [6], surface model deformable [5], segmentaperform bone used commonly and have been others, to from low accuracy due approaches often suffer these tion. 領域としきい値の成長[6]、表面モデル変形性[5]、一般的に使用され、他の人であったセグメントアパーフォーム骨は、低い精度のデューアプローチから、しばしばこれらの作用に苦しむ。
訳抜け防止モード: 領域と閾値成長 [6 ], 表面モデル変形可能な[5 ], 普通に使われ、他のものもあったセグメントパーホルムの骨は、低精度なアプローチから、しばしばこのような症状に苦しむ。
0.74
However, such as to varying image properties intensity, contrast, and the inherent variations between the bone structures (bone martexture of the row and surface boundary) and the surrounding tissues. しかし、さまざまな画像特性の強度、コントラスト、および骨構造(行と表面の境界の骨のマーテクチュア)と周囲の組織との間の固有の変動など。 0.75
To overcome shape modstatistical as these supervised methods challenges, such deep atlas-based and learning els have made (SSM) (DL) methods et al. このような教師付き手法の課題として形状のモダクティカルを克服するために、深層アトラスと学習用エルはSSM(DL)メソッドなどを作った。 0.49
segmentation significant tasks. セグメンテーションの重要なタスク 0.66
Wang [7, 8] contributions to Wang [7, 8] の貢献。 0.85
英語(論文から抽出)日本語訳スコア
Fig. 2: Workflow of U-Net フィギュア。 2:U-Netのワークフロー 0.58
architecture with pre-trained backbone, 建築は 事前訓練 バックボーン 0.54
detailing pelvic bone segmentation. 詳述 骨盤 骨 セグメンテーション 0.60
fusion label with segmentation joint a multi-atlas using suggested al. 提案したalを用いたマルチアトラスセグメンテーションジョイントによる核融合ラベル 0.78
et interest regions [9] Yokota from CT images. 興味領域 [9] 横田をCT画像から抽出する。 0.54
on for detecting for SSMs conditional hierarchical and of combination showcased a diseased from CT data. 条件付き階層型SSMの検出と,CTデータから疾患を呈示する組み合わせについて検討した。 0.67
Chu of segmentation the automated hips et al. セグメンテーションのchu:automated hips et al。 0.50
segaccurately for based method a multi-atlas presented [10] et al. segaccurately for based method a multi-atlas presented [10] et al. 0.97
proposed menting [11] Zeng and pelvis. 提案されたメンティング[11] 禅と骨盤。 0.60
femur a supervised supervision 3D U-Net with multi-level segmenting femur in 3D for MRI. femur MRI のための 3D のマルチ レベル セグメンティングの femur の監督された 3D U ネットワーク。 0.62
Chen et al [12] showcased a 3D feature enhanced network for et al. Chen et al [12] は et al の 3D 機能強化ネットワークを紹介した。 0.84
quickly femurs from CT data. CTデータから素早くフェムールします。 0.72
Chang [13] prosegmenting conditional a on refinement patch-based posed random field of top et fine hips. Chang [13] prosegmenting conditional a on refinement patch-based posed random field of top et fine hips. (英語) 0.84
healthy of model for segmentation and diseased Liu al. セグメンテーションモデルと疾患のあるLu alの健康状態。 0.62
on U-Nets approximately [14] used 3D in two-stages (trained 270K images) with signed distance function for producing bone a from image-stacks. およそ[14]のu-netでは、画像スタックから骨aを生成するために符号付き距離関数を持つ2段(270k画像)で3dを使用していた。 0.53
fragments following section, we discuss In the a pelvis the of addressing segmentation new technique accurate from varying qualities. セクションに続くフラグメントを議論する 様々な品質から正確なセグメンテーションに対処する新しいテクニックの骨盤の中で。 0.78
CT images of 3. PROPOSED METHODOLOGY designing for using efficacy The Encoder-Decoder of architectures applications has for segmentation models biomedical accuracy high employ a simirecent showcased in [11, 14, 15]. CT像は3。 ProPOSED METHODOLOGY Design for Use Effective The Encoder-Decoder of Architectures Applications have for segmentation model high for biomedical accuracy with asimirecent exhibited in [11, 14, 15]。 0.77
We been literature feature extraction architecture, with various lar for encoder modules The segmentation. 我々は,エンコーダモジュールを多用した特徴抽出アーキテクチャについて検討した。 0.73
semantic decoder module and the of details for a encoder in and decoder modules are explained the following. セマンティックデコーダモジュールとエンコーダインおよびデコーダモジュールの詳細については、次のように説明する。 0.82
3.1. Encoder Module encoder an terms, simple In and high-dimensional feature vector aggregated over multiple deploy a choice of the encoder module: 3.1. Encoder Module Encoder a terms, simple In and high-dimensional feature vectord over multiple deploy a choice of the encoder Module: 0.79
image architectures イメージアーキテクチャ 0.71
the input well-known generates a levels. よく知られた入力 レベルを生成します 0.73
We as the takes following ResNet (ResNet) networks gradient vanishing easy are to optimize 僕らは 以下 ResNet(ResNet)ネットワークの勾配の緩和が最適化される 0.62
3.1.1. Residual the ResNets models. 3.1.1. ResNetsモデルが残ります。 0.66
to residual mappings introduced solve neural deep [16]. ニューラルディープ [16] を解くために導入された残差マッピングへ。 0.56
networks problem in accuracy deeper even with gain and ゲインとゲインを併用した精度の高いネットワーク問題 0.63
3.1.2. Inception V3 Inception Networks are computationally efficient and parameters the model terms in of different for network Inception ing the computational its that changes do not impede 3.1.2. インセプションV3 インセプションネットワークは計算的に効率的であり、異なるモデル用語がネットワークインセプションに対して異なるパラメータである。
訳抜け防止モード: 3.1.2. インセプション v3 インセプションネットワークは計算効率が高く、その計算量に基づくネットワークインセプションのモデル用語が異なるパラメータである。 変化は妨げられません
0.60
usage. their memory applications while is efficiency 使用方法。 効率を保ちながら 記憶の応用は 0.63
architectures, both Adaptensuring difficult. アーキテクチャ、両方の適応困難。 0.69
Inception V3 with Inception V3 0.81
ease of model introduced 楽に モデルの 紹介 0.63
various adaptation strategies capabilities 様々な適応 戦略能力 0.75
for [17]. optimizing 17]のために optimize~ 0.67
network EfficientNet ネットワーク EfficientNet 0.81
3.1.3. use Conventional methods make the accuracy scaling of to increase depth/width The models scaled are of the models. 3.1.3. 従来の方法では、モデルの深度/幅を正確にスケーリングする。 0.72
by increasing the EfficientNet resolution of the higher network or using input images. 高いネットワークの効率的なNet解像度を増やすか、入力イメージを使用する。 0.71
scaling method that uses a compound coefficient from a novel results [18]. 新規な結果から化合物係数を用いたスケーリング法[18]。 0.67
dimensions all across network the uniformly to scale ネットワーク全体にわたって均一にスケールする次元 0.86
Decoder Module 3.2. semantic generating decoder module for responsible is a The seghigh-dimensional using mentation mask aggregated the exfeatures the by encoder module. decoder module 3.2. semantic generation decoder module for responsible is a seghigh-dimensional using mentation mask aggregateed the exfeatures the by encoder module 0.90
We make use of tracted the popular U-Net specially designed for medical imaging as model the decoding mod[15]. 医用イメージング用に特別に設計されたtracted u-netをデコードmod[15]のモデルとして利用する。 0.75
ule processing a Histogram Specification 3.3. imHistogram specification, histogram matching, or age his[19] technique the that matches histogram. ule 処理する ヒストグラム仕様 3.3. ヒストグラム仕様、ヒストグラムマッチング、またはヒストグラムに一致する彼の[19]技術。 0.77
involves togram to reference Histogram specification computing the cumulative distribution function (CDF) of histograms from both the target and the reference, following which a transformafrom each by mapping obtained is tion level gray function [0, 255] CDF. ターゲットと参照の両方からヒストグラムの累積分布関数(CDF)を演算するTogram to Reference Histogram仕様を含む。その後、得られたマッピングによって各トランスファは、イオンレベルグレー関数[0, 255] CDFである。 0.88
reference the level gray the to CDF the in (input) target’s In histogram by construct this work, we the reference over averaging histograms from every image in the training set. この作業を構築することにより、イン(入力)ターゲットのヒストグラムのCDFレベルグレーを参照し、トレーニングセット内のすべての画像からヒストグラムを平均化するための参照。 0.83
Using this technique pre-processing step for the test serves an important as a data the of distribution the as purpose, similar a to converted is data test form seen by the network during training. この手法を用いたテストの前処理ステップは、トレーニング中にネットワークが見るデータテストフォームの変換に類似した、目的として分布するデータとして重要な役割を果たす。 0.86
traditional image’s is a input 伝統的なイメージ。 入力です 0.66
EXPERIMENTAL VALIDATION 4. Datasets 4.1. input data preparation and label The from Image-J tools archive [3] resolution, tive 実験的検証 4. Datasets 4.1. 入力データの準備とラベル Image-J tools Archive [3] resolution, tive 0.76
annotation were done using the imaging of TCIA–cancer A summary software. アノテーションは TCIA-cancer A 要約ソフトウェアのイメージングを用いて行われた。 0.73
image [4] project VHBD–Visible and datasets, human study, the this and respecin used number the images data-splits are training-validation- testing, for shown in Table 1. image [4] project VHBD–Visible and datasets, human study, this and respecin used number the images data-splits is training-validation- testing, for shown in Table 1 0.97
of x 3x 2x 2x 6EFFICIENT NET -B0 ENCODERUNET -DECODER3 x 3 CONV3 x 3 MBCONV13 x 3 MBCONV65 x 5 MBCONV6UPSAMPLE + CONV (2x)CT -DATASEGMENTED OUTPUT ですから x 3x 2x 2x 6EFFICIENTNET -B0 ENCODERUNET -DECODER3 x 3 CONV3 x 3 MBCONV13 x 3 MBCONV65 x 5 MBCONV6UPSAMPLE + CONV (2x)CT -DATASEGMENTED出力 0.66
英語(論文から抽出)日本語訳スコア
Table Dataset テーブル データセット 0.71
TCIA [3] VHBD [4] CIA[3] VHBD [4] 0.75
VHBD-2 1: An overview of Resolution Images # 512 x 512 582 512 167 512 167 VHBD-2 1:解像度画像#512 x 512 582 512 167 512 167の概要 0.69
512 512 [4] 512 512 [4] 0.85
x x the datasets x x はあ? データセット 0.66
used in this work. 使用 で この仕事だ 0.68
Train-set (%) 407 (70%) – 116 (70%) Train-set (%) 407 (70%) – 116 (70%) 0.96
Val-set (%) 58 (10%) – 17 (10%) Val-set (%) 58 (10%) – 17 (10%) 0.96
Test-set (%) 117 (20%) 167 (100%) 34 (20%) Test-set (%) 117 (20%) 167 (100%) 34 (20%) 0.94
4.2. Performance Measures standard percompute the quality of segmentation, we quantify To used litin commonly tasks segmentation measures formance for and mean (mDice) coefficient specifically, erature, the mean Dice a (mIoU) Intersection segmentation For over Union [20, 21]. 4.2. 性能測定基準は, セグメンテーションの質を近似し, 定量化するために, 一般的に, 平均(mDice)係数のフォーマンス, 平均(mDice)係数, 平均(mIoU)インターセクションセグメンテーション, 平均(mIoU)インターセクションセグメンテーションを用いる[20, 21]。 0.72
given is given by (A) output and the ground truth (B), the Dice coefficient 2 |A ∩ B| Dice = a weighted average of , which can be interpreted as |A| + |B| |A ∩ B| and IoU = the precision and recall, Jaccard (also known as , |A ∪ B| is index) commonly used comparing the similarity sets for (B), while and (A) diversity. A) の出力と基底の真理 (B) によって与えられる Dice 係数 2 |A の B| Dice = の重み付き平均は |A| + |B| |A の B| と解釈でき、IoU = 精度とリコール、ジャカード (Jaccard, または |A の B| は指数) は (B) の類似性集合と (A) の多様性を比較するのが一般的である。 0.84
penalizing their between 4.3. 罰せられ 間 4.3. 0.66
Network Training used were The implementations from documentation the based on used [16–18] [22]. 使用するネットワークトレーニングは、使用済み [16–18] [22] に基づくドキュメンテーションによる実装である。 0.81
The models Imathe on pre-trained were genet [23] dataset to improve the generalization capability on unseen use base-model, the For convergence. Imathe on pre-trained were genet [23] dataset to improve the generalization capabilities on unseen use base-model, the For convergence。 0.84
and data we faster achieve initialize a U-Net and the ResNet-34 as [16] encoder decoder. U-NetとResNet-34を[16]エンコーダデコーダとして初期化する。 0.69
We (rnwt) the base-model with random weights and train without any (noaug) data-augmentation on images from [3], using an Nvidia RTX 2070 GPU, and an ADAM optimizer with a learning rate of 0.0001, and momentum 0.001, of weight of 40 for decay a 0.9 20% split of chose epochs. Nvidia RTX 2070 GPUと、学習率0.0001のADAMオプティマイザと、選択されたエポックの0.9 20%分割を崩壊させるための40のモーメント0.001を使用して、[3]の画像上の(ノーオーグ)データ拡張なしでランダムウェイトとトレーニングベースモデル(rnwt)。 0.70
We a 70% : the data (shown in the 10% : first row of Table 1), where the 70% was utilized for training and the 10% of the data was utilized for validation. 70% : データ(表1の10% : 1行目)、70%がトレーニングに使用され、10%が検証に使われました。
訳抜け防止モード: 我々は70% : データ(表1の第1列の10パーセントに示す) 70%が訓練に利用され データの10%は 検証に利用されました
0.76
The remaining 20% for of 50 About training. 残りの20%は50のトレーニングについてです。 0.69
during unseen testing was passes completely from the training set, were used size eight, random image batches, of on validated The model was each 10% data epoch. 未確認テストの間、トレーニングセットから完全にパスされ、サイズ8、ランダムな画像バッチを使用して、検証されたモデルがそれぞれ10%のデータエポックでした。
訳抜け防止モード: 未確認テスト中は トレーニングセットから完全にパスされ サイズは8でした 検証済みのランダムな画像バッチ モデルは、それぞれ10%のデータエポックでした。
0.72
in then the to (bce) the evaluate performance based on binary-cross-entropy loss the record and corresponding weights. すると、to(bce)は、二進クロスエントロピーに基づく評価性能がレコードと対応する重み付けを失う。 0.61
After training, the weights that gave the best performance on the validation set were selected for the which was base-model, unseen the on evaluated test-sets, [3] i.e., 20% of respectively, whose performance is and 100% of showcased in the first Extending beyond the base-model, data augmentation (aug) was imtransforms, horizontal using performed affine vertical flips, and for age training blurring, and intensity modulation data increasing find to help size and to reduce the over-fitting. トレーニング後, 検証セットで最高の性能を示すウェイトをベースモデルとして選択し, 評価したテストセットを表示せず, [3] それぞれ20%, 性能が100%で, ベースモデルを超えて, データ拡張(オーグ)が不変で, アフィン垂直フリップを水平に使用し, 年齢訓練のぼやけ, 強度変調データの増加によりサイズが増加し, 過度適合度が低下した。 0.77
In addition, we try best overall segmentation performance and generalization capability to completely unseen data, through further extension of the basefollowing: the using configurations, different model with Inception ResNet-34 [17] [16], Imagenet weights initialized with さらに、ベースフォローのさらなる拡張を通じて、完全に見えないデータに最高の全体的なセグメンテーションパフォーマンスと一般化機能を試みます。構成の使用、Inception ResNet-34 [17] [16]で異なるモデル、Imagenetの重みを初期化します。
訳抜け防止モード: さらに、セグメント化性能と一般化能力を最大限に活用して、完全に見当たらないデータを実現する。 basefollowingのさらなる拡張を通じて : 使用構成、Inception ResNet-34 [ 17 ] [ 16 ] の異なるモデル Imagenet weights の初期化
0.79
row of Table 2. then [4], 表2の行。 すると [4], 0.71
V3 • encoder modules using EfficientNet-B0 and [18], (imwt) for transfer learning re-configuration of input model’s format and its extraction of better features V3 • EfficientNet-B0 および [18], (imwt) を用いたエンコーダモジュールによる入力モデルのフォーマットの再設定とより良い特徴の抽出 0.81
• data, not, pre-processing • データではなく、前処理 0.80
or to the functions pre-trained (ppr), for あるいは 機能に pre-trained (複数形 pre-traineds) 0.65
Input (b) (a) 3: Fig. 入力 (b) (a) 3: 図。 0.73
bone Pelvic using: (a) Base Usegmentation on TCIA data Net with random weight for ResNet-34 encoder, with initialization perform(least data-augmentation, no using optimized loss BCE ing); (b) and fine-tuned U-Net with Imagenet weight initialization for EfficientNet-B0 encoder, with data-augmentation and input re(best perconfiguration, optimized combined BCE-IoU loss using forming), the onto overlaid are TP;yellow ground-truth; binary black - TN; green - FP; red - FN. 骨 Pelvic using: (a) TCIA data Net with random weight for ResNet-34 encoder with initialization performing(Last data-augmentation, no use optimized loss BCE ing); (b) and fine-tuned U-Net with Imagenet weight initialization for EfficientNet-B0 encoder with data-augmentation and input re(best perconfiguration,tim ized combined BCE-IoU loss using forming) onto overlaid is TP;yellow ground-truth; binary black - TN; green - FP; red - FN。 0.91
TCIA (a1) (a2) CIA (a1) (a2) 0.81
VHBD (target) VHBD (複数形 VHBDs) 0.69
(b1) (b2) (c1) (b1) (b2) (c1) 0.94
H-VHBD Fig. 4: Performance in segmentation with histogram specification: (a2-c2) input (a1-c1) images; of respective show the the histograms ground-truth; on segmentations pelvic the the bone show overlaid improvement and in segmentation from (b2-c2) decisively show the matching target’s histogram to the reference. H-VHBD図。 4: (a2-c2) 入力 (a1-c1) 画像, それぞれがヒストグラムの接地構造を示し, 骨がオーバーレイ改善され, (b2-c2) からのセグメンテーションが一致した対象のヒストグラムを基準に決定的に示す。 0.73
yellowTP; black- FN. yellowTP;黒- FN。 0.95
red - FP; green TN; Red - FP; Green TN; 0.82
(c2) • loss bined strong (c2) • loss‐bined 0.80
functions bce-iou gradients 関数 bce-iou 勾配 0.60
(dice), (iou) and IoU loss comloss like Dice bce propagating for place loss, in of loss, and learning optimization better for (dice)、(iou)、(io)、そして、Dice bceのような、場所損失、損失の減少、学習最適化を伝播するIoU損失コンロス 0.70
4.4. Results of comparisons The detailed performance segmentation on in 2. shown Table tervals are least-performing (base-model) 4.4. 比較結果 2. 表表の詳細な性能区分は最低性能(ベースモデル)である。 0.75
the test-sets The and the test-sets The and 0.84
different U-Net 95% with segmentation best-performing セグメンテーションベストパフォーマンスを持つ異なるU-Net 95% 0.67
configurations’ inconfidence outputs from the (fine-tuned U- 設定の(微調整された)Uからの不信出力 0.54
英語(論文から抽出)日本語訳スコア
Table 2: H-VHBD, Performance i.e., VHBD after U-Net Configurations 表2:H-VHBD U-Net構成後のVHBDの性能 0.81
comparison of different U-Net histogram specification. 比較 ですから 異なるUネットヒストグラム仕様。 0.65
TCIA configurations for CIA 構成 ですから 0.62
pelvic bone segmentation 骨盤 骨 segmentation 0.74
on unseen data オン 見えない データ 0.64
from TCIA, VHBD, TCIA, VHBD, 0.60
and VHBD H-VHBD そして VHBD H-VHBD 0.72
mIoU 0.131 ± 0.033 0.746 ± 0.028 0.523 ± 0.039 0.790 ± 0.018 0.663 ± 0.026 0.808 ± 0.014 0.835 ± 0.015 0.836 ± 0.011 0.679 ± 0.047 mIoU 0.131 ± 0.033 0.746 ± 0.028 0.523 ± 0.039 0.790 ± 0.018 0.663 ± 0.026 0.808 ± 0.014 0.835 ± 0.015 0.836 ± 0.011 0.679 ± 0.047 0.52
mDice 0.186 ± 0.037 0.840 ± 0.021 0.645 ± 0.038 0.877 ± 0.012 0.784 ± 0.019 0.890 ± 0.009 0.906 ± 0.010 0.909 ± 0.006 0.801 ± 0.032 respectively. mDice 0.186 ± 0.037 0.840 ± 0.021 0.645 ± 0.038 0.877 ± 0.012 0.784 ± 0.019 0.890 ± 0.009 0.906 ± 0.010 0.909 ± 0.006 0.801 ± 0.032 respectively. 0.54
mIoU 0.774 ± 0.021 0.900 ± 0.004 0.907 ± 0.005 0.906 ± 0.004 0.906 ± 0.006 0.913 ± 0.005 0.901 ± 0.006 0.914 ± 0.005 0.873 ± 0.013 mIoU 0.774 ± 0.021 0.900 ± 0.004 0.907 ± 0.005 0.906 ± 0.004 0.906 ± 0.006 0.913 ± 0.005 0.901 ± 0.006 0.914 ± 0.005 0.873 ± 0.013 0.52
mDice 0.865 ± 0.015 0.947 ± 0.002 0.951 ± 0.002 0.950 ± 0.002 0.950 ± 0.003 0.954 ± 0.002 0.947 ± 0.003 0.955 ± 0.002 0.931 ± 0.007 mDice 0.865 ± 0.015 0.947 ± 0.002 0.951 ± 0.002 0.950 ± 0.002 0.950 ± 0.003 0.954 ± 0.002 0.947 ± 0.003 0.955 ± 0.002 0.931 ± 0.007 0.52
mIoU 0.788 ± 0.033 Res34-rnwt-noaug-bce 0.919 ± 0.007 Res34-imwt-aug-bce 0.925 ± 0.007 Res34-imwt-aug-dice 0.922 ± 0.007 Res34-imwt-aug-bce-i ou 0.876± 0.012 IncepV3-imwt-aug-bce 0.921 ± 0.011 IncepV3-ppr-imwt-aug -bce 0.923 ± 0.007 EffiB0-imwt-aug-bce 0.924 ± 0.008 EffiB0-ppr-imwt-aug-bce- iou 0.913 ± 0.007 ABLATION STUDY (p) * Encoder module IncepV3, EffiB0 - Res34, * Encoder Weights are andrnwt imwt random weights * Augmentationnoaug means aug and training with * Loss the Binary Cross Entropy are ioudice, bce, * pprbackbone’s pre-trained to input configure the * Grey backgroundindicates improvement due to mIoU 0.788 ± 0.033 Res34-rnwt-noaug-bce 0.919 ± 0.007 Res34-imwt-aug-bce 0.925 ± 0.007 Res34-imwt-aug-dice 0.922 ± 0.007 Res34-imwt-aug-bce-i ou 0.876± 0.012 IncepV3-imwt-aug-bce 0.921 ± 0.011 IncepV3-ppr-imwt-aug -bce 0.923 ± 0.007 EffiB0-imwt-aug-bce 0.924 ± 0.008 EffiB0-ppr-imwt-aug-bce- iou 0.913 ± 0.007 ABLATION STUDY (p) * Encoder module IncepV3, EffiB0 - Res34, * Encoder Weights are andrnwt imwt random weights * Augmentationnoaug means aug and training with * Loss the Binary Cross Entropy are ioudice, bce, * pprbackbone’s pre-trained to input configure the * Grey backgroundindicates improvement due to 0.52
mDice 0.867 ± 0.025 0.957 ± 0.004 0.960 ± 0.004 0.959 ± 0.004 0.932 ± 0.007 0.957 ± 0.007 0.959 ± 0.004 0.960 ± 0.004 0.954 ± 0.004 mDice 0.867 ± 0.025 0.957 ± 0.004 0.960 ± 0.004 0.959 ± 0.004 0.932 ± 0.007 0.957 ± 0.007 0.959 ± 0.004 0.960 ± 0.004 0.954 ± 0.004 0.52
are ResNet-34, and and without data-augmentation, loss, Dice Loss format. は ResNet-34 であり、データ オーグメンテーション、損失、ダイス ロス フォーマットなし。 0.79
histogram-specification Histogram‐specification 0.57
Inception Net-V3, EfficientNet-B0, Imagenet weights, respectively. インセプション net-v3, efficientnet-b0, imagenet weights。 0.72
IoU loss, respectively. IoUの損失。 それぞれ。 0.67
respectively pre-processing. based それぞれ 前処理。 ベース 0.64
and . enEfficientNet-B0 for initialization weight Imagenet Net with re-configuration, data-augmentation with input and [18], coder BCE-IoU showmodels combined using loss) DL are optimized (a) &(b). そして . enEfficientNet-B0 for initialization weight Imagenet Net with re-configuration, data-augmentation with input and [18], coder BCE-IoU showmodels combination using Los) DLを最適化(a) &(b)。 0.81
3 predicted outputs are overlaid onto Fig. 3つの予測出力は図にオーバーレイされます。 0.58
cased in The green TN; black TP; (yellowcolor-coded and ground-truth theThe segmentation. The Green TN; Black TP; (Yellowcolor-coded と Ground-Truth The The segmentation の例。 0.79
of visualizing for FN)FP; red the quality results shown in Fig. FN)FPの可視化について;図に示す品質結果を赤くします。 0.77
4(b2) &(c2) illustrate the desired effect on segmentation due to histogram specification. 4(b2) &(c2)はヒストグラムの仕様によるセグメンテーションに望ましい効果を示す。 0.83
The reduction in the number of pixels labeled as FPs & FNs, and improvement in number preof significance the show decisively overlays of from the TPs segmentation the model’s boosts clearly test-data, which processing comparitive performance. fps & fnsとラベル付けされたピクセル数の減少と、その数の重要性の向上 モデルが強調するtpsセグメンテーションから決定的にオーバーレイするショーは、比較パフォーマンスを処理するテストデータを明確にする。 0.69
Furthermore, the results tabulated in the last two columns of Table 2 give strong evidence for the success of the proposed methodology on all the specified model configurations. さらに、表2の最後の2列に集計された結果は、すべての特定モデル構成において提案手法が成功したという強い証拠を与える。 0.73
proposed method3, in Table data analyzing On shown the the ology’s performance overall surpassed test-sets on the stateseveral sized techniques that of-the-art were trained on similarly datasets, et al. 提案手法3では、テーブルデータ解析において、この用語の全体的な性能が、同種のデータセットでトレーニングされた州別サイズのテクニックに関するテストセットを上回ったことを示す。 0.61
the with exception of Liu [14] who performed on training apthe any model, drives images. apthe の訓練を行った Liu [14] を除いて,イメージを駆動する。 0.67
proximately data Since pro270,000 posed methodology (trained only on 407 images) shows room for further improvement in segmentation under the availability of larger datasets. pro270,000が提案した方法論(407イメージでのみトレーニングされている)から、より大きなデータセットの可用性の下でセグメンテーションをさらに改善する余地が示される。
訳抜け防止モード: proximately data Pro270,000 posed method (407 画像のみのトレーニング) より大きなデータセットの可用性の下で、セグメンテーションのさらなる改善の余地を示す。
0.77
4.5. Ablation Study rows 1 shown and 3 of Images from [3, 4], with the data splits in best-model was the trained The training. 4.5. アブレーションスタディ行1と[3, 4]からの画像の3は、最高のモデルでデータを分割し、訓練されたトレーニングでした。 0.74
for used 1, Table on are The shown in Table 2 (p). 使用済み 1 の場合、表は表 2 (p) に示されています。 0.77
joint data whose is test-data performance degrades data the on results showed that training the model joint performance on both The data imbalance varying datasets. テストデータのパフォーマンスがデータを低下させるジョイントデータの結果は、両方のデータ不均衡なデータセットでモデルの共同パフォーマンスを訓練することを示した。 0.73
and the image tonal distributions play a significant role in influencing the the And segmentation proposed methodolby performance. そして、画像のトーン分布は、アンドセグメンテーション提案手法のパフォーマンスに影響を与える上で重要な役割を果たします。 0.66
using generalizes well ogy, the model overcomes data imbalance and to unseen datasets, which boosts its overall segmentation performance. 一般化のogyを使用して、モデルはデータの不均衡を克服し、見られないデータセットに、そしてそれは全体的なセグメンテーションのパフォーマンスを後押しします。
訳抜け防止モード: generalizes well ogy (複数形 generalizes well ogies) このモデルはデータの不均衡とデータセットの認識を克服し、全体的なセグメンテーション性能を高める。
0.58
Table 3: tation with 表3: tation with 0.76
Overall state-of-the-art performance 総合的最新技術 パフォーマンス 0.54
techniques. comparison for テクニック。 比較 ですから 0.63
pelvic bone segmen- Methodology 骨盤 骨 セグメン 方法論 0.61
al. [9] et al. アル 9] et al。 0.47
[10] al. et [13] [14] al. 10] al。 et [13] [14] al。 0.66
Yokota Chu et Chang Liu et Proposed method (DS‡) CERVIX, KITS19, CLINIC; Train:Test ≈ 270K: 横田Chu et Chang Liu et Proposed method (DS*) CERVIX, KITS19, CLINIC; 列車:テスト: 270K。 0.86
Dataset (# Images) (100) Private Private (318) (∼3420) Private DS‡(∼63K) TCIA,VHBD (284) ABDOMEN, 63K; K = 103 Dataset (# Images) (100) Private Private (318) (...3420) Private DS'(...63K) TCIA,VHBD (284) ABDOMEN, 63K; K = 103 0.92
MSD mIoU mDice MSD mIoU mDice 0.85
— — — — 0.919 T10, — — — — 0.919 T10, 0.86
0.928 0.941 0.949 0.984 0.957 COLONOG, 0.928 0.941 0.949 0.984 0.957 COLONOG, 0.52
5. CONCLUSION methodology for sum To novel we in work, this up, presented a segmentation the from axial CT images. 5. 結論 方法論 要約すると、we in workは軸方向ct画像からのセグメンテーションを示した。 0.62
automated of bones pelvic superior pelvic bone addressed the unmet need for segmentation We methodology for images with varying properties by using histogram approach specification. 骨盤上骨盤骨の自動化は, ヒストグラムアプローチ仕様を用いて, 特徴の異なる画像に対して, セグメンテーションの必要性に対処した。 0.77
yet pre-processing This simple powerful of significant improved test-data the a by performance segmentation margin, with the quantitative results confirming its validity. パフォーマンスセグメンテーションマージンによるテストデータを大幅に改善し、その妥当性を確認する定量的な結果を提供します。 0.66
Through configuration the approach, overcame encoder-decoder our a significant images, which hurdle of varying intensity distributions in CT led to superior segmentation quality. 構成によって、エンコーダデコーダは、CT内のさまざまな強度分布のハードルが優れたセグメンテーション品質をもたらした重要なイメージを上回りました。 0.67
Moreover, after the validating results on publicly available TCIA and VHBD datasets, the proposed methodology has been shown to be highly competent with-respect-to existing さらに,公開tciとvhbdデータセットの検証結果から,提案手法は既存のデータに対して極めて有能であることが判明した。 0.67
techniques. state-of-the-art study, that, we saw processing image for to lead can approaches テクニック。 最先端の研究で、私たちは鉛缶アプローチのための処理画像を見た 0.62
Through this has the limits impushed age processing techniques are not necessarily obsolete and that comtwo the bining segmentation. これにより、押出年代処理技術は必ずしも時代遅れではなく、バイニングセグメンテーションを構成するものとなる。 0.56
learning traditional in performance 伝統的なパフォーマンスを学ぶ 0.73
although deep applications, superior 深い応用ではありますが 0.56
英語(論文から抽出)日本語訳スコア
[1] [2] [3] [1] [2] [3] 0.85
[4] [5] [6] [4] [5] [6] 0.85
[7] [8] [9] [7] [8] [9] 0.85
[10] [11] B [10] [11] B 0.85
of 18, frames,” ですから 18, フレーム”。 0.68
Proceedings visible pp. project,” 1998. 経過 可視性p。 1998年「プロジェクト」。 0.63
human 504–511, ヒト504-511。 0.53
united states, 353–360, アメリカ合衆国 353-360 0.83
6. Naumann, 6. Naumann 0.67
in pelvic BMC medical 骨盤BMC医療において 0.71
Zaloshnja, lifeinjury by prevention, zaloshnja, lifeinjury by prevention(英語) 0.69
and Yuzhen images based on vol. そして vol. に基づく Yuzhen のイメージ。 0.76
no. and Tae-Seong Kim, active contour for Annual International ダメよ テ・ソン・キムと年次国際活動 0.54
Eduard “Incidence and total and nonfatal Traffic injury Eduard「発生と合計および非致死的な交通事故。 0.68
REFERENCES Rebecca Ann M Dellinger, Bruce A Lawrence, and Ted R Miller, costs of motor vehicle–related fatal time road 2005,” user type, vol. ReFERENCES Rebecca Ann M Dellinger、Bruce A Lawrence、およびTed R Millerは、自動車関連致命的な時間道路のコスト2005」とユーザータイプ、vol。 0.80
11, no. 4, pp. 11、いいえ。 4, pp。 0.75
2010. Hui Yu, Haijun Wang, Yao Shi, Ke Xu, Xuyao Yu, Cao, segmentation of bones ct “The imaging, of key extraction 1, pp. 2010. Hui Yu, Haijun Wang, Yao Shi, Ke Xu, Xuyao Yu, Cao, segmentation of bones ct“The imaging, of key extract 1, pp。 0.82
18, 2018. Freymann, John Smith, Kirk Vendt, Kenneth Bruce Clark, Phillips, Stephen Moore, Kirby, Paul Justin Koppel, Stanley imaging Pringle, al., et “The David Maffitt, Michael cancer information and a archive (tcia): maintaining operating public imaging, digital of Journal repository,” pp. 18, 2018. Freymann, John Smith, Kirk Vendt, Kenneth Bruce Clark, Phillips, Stephen Moore, Kirby, Paul Justin Koppel, Stanley Imaging Pringle, al., et “The David Maffitt, Michael cancer information and a Archive (tcia): operating public imaging, digital of Journal repository”. pp。 0.83
6, no. 26, vol. 6、いいえ。 26 vol. 0.69
1045–1057, 2013. 1045–1057, 2013. 0.84
M. “The J. Ackerman, the IEEE, vol. M. “The J. Ackerman, the IEEE, vol。 0.95
86, no. 3, “A denSungyoung Lee, Phan TH Truc, distance sity augmented ct bone chan-vese Confer30th 2008 in segmentation,” the IEEE Engineering in Medicine and Biology Society. 86、ノー。 A denSungyoung Lee, Phan TH Truc, distance sity augmented ct bone chan-vese Confer30th Conferation in segmentation”. IEEE Engineering in Medicine and Biology Society. 2008年3月3日閲覧。 0.76
ence of IEEE, 2008, pp. ence of IEEE, 2008 pp。 0.69
482–485. Hans Dagmar and Kainmueller, Hans-Christian Hege, for multi“Coupling deformable models in International Symposium on Biomedobject segmentation,” ical Simulation. 482–485. Hans Dagmar and Kainmueller, Hans-Christian Hege, for multi “Coupling deformable models in International Symposium on Biomedobject segmentation”. IC Simulation 0.78
Springer, 2008, pp. スプリンガー、2008年、p。 0.42
John B Pluta, Sandhitsu R Das, Jung W Suh, Hongzhi Wang, Paul A Yushkevich, Caryne Craige, “Multi-atlas and segmentransactions IEEE on pattern tation with label joint fusion,” analysis and machine intelligence, vol. John B Pluta, Sandhitsu R Das, Jung W Suh, Hongzhi Wang, Paul A Yushkevich, Caryne Craige, “Multi-atlas and segmentransactions IEEE on pattern tation with label joint fusion”, Analysis and machine intelligence, vol. IEEE.com 0.88
35, no. 3, pp. 611–623, 2012. 35だ 3、p。 611–623, 2012. 0.62
Hongzhi Wang, Mehdi Moradi, Yaniv Gur, Prasanth Prasanna, to approach “A multi-atlas and Tanveer reclassification,” gion image in interest Image International Computing and Computer-Assisted Intervention. hongzhi wang, mehdi moradi, yaniv gur, prasanth prasanna, “a multi-atlas and tanveer reclassification”, gion image in interest image international computing and computer-assisted intervention” などだ。 0.75
Springer, 2017, pp. スプリンガー、2017年、p.。 0.49
168–176. Toshiyuki Yokota, Nobuhiko Takao, Futoshi Okada, Masaki Tada, Yukio Tomiyama, Sugano, and Yoshinobu Noriyuki ct “Automated Sato, diseased hip using hiof segmentation Inconditional and erarchical shape models,” statistical in and ternational Computing Image Medical on Conference Computer-Assisted Intervention. 168–176. 横田俊行氏、高尾信彦氏、岡田不利氏、多田正樹氏、富山幸雄氏、菅野義信氏、そして「自動サトー氏、ヒフセグメンテーションを用いた股関節疾患、無条件および階層形状モデルを用いた股関節疾患、統計情報及び全国コンピュータイメージメディカル on Conference Computer-Assisted Intervention」。 0.65
Springer, 2013, pp. スプリンガー、2013年、p。 0.41
190–197. Chengwen Chu, Junjie Bai, Xiaodong Wu, and Guoyan Zheng, Multi-atlas segmentation “Mascg: graph method constrained image Medical images,” of segmentation for ct hip accurate analysis, vol. 190–197. chengwen chu, junjie bai, xiaodong wu, and guoyan zheng, and multi-atlas segmentation “mascg: graph method restricteded image medical images” of segmentation for ct hip accurate analysis, vol. 日本語版記事) 0.78
2015. 173–184, 1, pp. 2015. 173–184, 1, pp。 0.86
no. 26, Yu, Lequan Jing Xin Zeng, Guodong Yang, Li, and Guoyan Zheng, Heng, “3d u-net with multi-level pervision: fully automatic segmentation of proximal ダメよ 26 Yu, Lequan Jing Xin Zeng, Guodong Yang, Li, and Guoyan Zheng, Heng, “3d u-net with multi-level pervision: Complete Automatic segmentation of proximal” 0.75
Syeda-Mahmood, detection Conference Syeda-Mahmood, Detection Conference 0.83
Pheng-Ann deep sufemur in Pheng-Ann Deep Sufemur in 0.81
for medical on Medical Lamecker, 医療の分野では Lamecker 0.57
Zachow, 69–78. Zachow 69–78. 0.58
Stefan of ステファン ですから 0.49
[12] [13] [14] [12] [13] [14] 0.85
[15] [16] [17] [15] [16] [17] 0.85
[18] [19] [20] [18] [19] [20] 0.85
[21] [22] [23] [21] [22] [23] 0.85
images,” pp. イメージ」。 pp. 0.74
networks 274–282. ネットワーク 274–282. 0.73
2017, pp. and Thomas Brox, 2017年、p。 トーマス・ブロックス。 0.62
Tamura, a novel Zhu, Zhao, bones: arXiv 田村(たむら)小説 Zhu, Zhao, bones: arXiv 0.72
“Accurate pelvis patch-based Accurate pelvis patch-based 0.77
network for biomedical 2017. バイオメディカル2017のネットワーク。 0.76
Li, Yinhao Li Xiao, Largepreprint Li, Yinhao Li Xiao, Largepreprint 0.85
in International workshop on machine learning 機械学習に関する国際ワークショップで 0.85
and Hongen Liao, automatic health and そしてHongen Liao、自動健康および。 0.78
feature-enhanced IEEE journal of no. feature-enhanced IEEE journal of no。 0.85
1, 243–252, 1, 243–252, 0.84
imaging. Springer, Jia Liu, Zhe Zhao, Mingyu Zhu, イメージング。 Springer、Jia Liu、Zhe Zhao、Mingyu Zhu。 0.70
3d mr in medical Fang Chen, “Three-dimensional femur segmentation,” informatics, vol. 3d Mr in Medical Fang Chen, “Three-dimensional femur segmentation”, informatics, vol。 0.87
23, Yong Chang, Yongfeng Yuan, Changyong Guo, Yadong Wang, Shinichi and Cheng, Yuanzhi and ct with femur refinein segmentation hip IEEE journal of biomedical and health informatics, vol. 23 Yong Chang, Yongfong Yuan, Changyong Guo, Yadong Wang, Shinichi and Cheng, Yuanzhi and ct with femur refinein segmentation hip IEEE journal of biomedical and health informationatics, vol. 0.82
ment,” 2018. 1192–1204, 3, pp. と2018年。 1192-1204, 3, pp。 0.55
23, no. Heqin Yuanqi Liu, Pengbo Du, Han, Hu Chunpeng Jun Gu, Li, Feng Honghu Xiao, learning et al., “Deep to segment pelvic scale ct datasets and baseline models,” arXiv:2012.08721, 2020. 23、いいえ。 Heqin Yuanqi Liu, Pengbo Du, Han, Hu Chunpeng Jun Gu, Li, Feng Honghu Xiao, Learning et al., “Deep to segment pelvic scale ct datasets and baseline model” arXiv:2012.08721, 2020. 0.83
“U-net: Olaf Ronneberger, Philipp Fischer, segmentation,” image for Convolutional biomedical and computing image International Conference on Medical in computer-assisted intervention. U-net: Olaf Ronneberger, Philipp Fischer, segmentation」は、コンピューターによる介入によるConvolutional Biomedical and Computing Image International Conference on Medicalのイメージです。 0.85
Springer, 234–241. スプリンガー 234-241。 0.57
2015, pp. Jian and Ren, Shaoqing Zhang, He, Kaiming Sun, Xiangyu Proceedresidual “Deep recognition,” in image learning for and vision pattern computer IEEE the ings of conference on recognition, 2016, pp. 2015年、p。 Jian and Ren, Shaoqing Zhang, He, Kaiming Sun, Xiangyu Proceedresidual “Deep recognition” in image learning for and vision pattern computer IEEE the ings of conference on recognition, 2016 pp. 2016年4月1日閲覧。 0.81
770–778. Ioffe, Sergey Szegedy, Christian Vincent Vanhoucke, the “Rethinking Zbigniew Wojna, inception Shlens, and of Proceedings the vision,” chitecture for computer in recognition, pattern conference on computer vision and pp. 770–778. Ioffe、Sergey Szegedy、Christian Vincent Vanhoucke、”Rethinking Zbigniew Wojna, Inception Shlens, and of Proceedings the Vision”、コンピュータ認識のための知能、コンピュータビジョンに関するパターン会議、pp。 0.72
2818–2826. 2818–2826. 0.71
V Tan Mingxing Quoc Le, convolutional model scaling arXiv:1905.11946, preprint 2019. algorithms vision: Computer Szeliski, Richard tions, 2010. V Tan Mingxing Quoc Le, convolutional model scaling arXiv:1905.1 1946, preprint 2019. algorithm vision: Computer Szeliski, Richard tions, 2010 0.96
Springer Science & Business Media, “GeneralWilliam R Crum, Oscar Camara, and Derek LG Hill, evaluation and validation in medical ized overlap measures image pp. Springer Science & Business Media, “GeneralWilliam R Crum, Oscar Camara, Derek LG Hill, evaluation and validation in medical ized overlap measures image pp。 0.79
11, no. 25, 1451–1461, Herng-Hua Chang, Audrey H Zhuang, Daniel Chu, “Performance measure Woei-Chyn neuroimage segmentation evaluating age, 122–135, vol. 11、いいえ。 25, 1451–1461, Herng-Hua Chang, Audrey H Zhuang, Daniel Chu, "Performance measure Woei-Chyn neuroimage segmentation Assessment age, 122–135, vol。 0.79
47, 2009. pp. 47, 2009, pp。 0.87
1, no. Pavel Yakubovskiy, “Segmentation https: //segmentation-model s.readthedocs.io/en/ latest/, and Kai Li-Jia Socher, Richard Jia Deng, Wei Dong, Li, Li, large-scale A “Imagenet: Li Fei-Fei, image hierarchical on 2009 IEEE conference vision computer and database,” pattern recognition. 1、いいえ。 Pavel Yakubovskiy, “Segmentation https: //segmentation-model s.readthedocs.io/en/ latest/, and Kai Li-Jia Socher, Richard Jia Deng, Wei Dong, Li, Li, large-scale A“Imagenet: Li Fei-Fei, image Hierarchical on 2009 IEEE conference vision computer and database”パターン認識。 0.79
Ieee, 2009, pp. 2009年、p.p.。 0.76
248–255. J Valentino, characterization 248–255. J Valentino 特徴づけ 0.71
“Efficientnet: neural 「Efficientnet:ニューラル」 0.77
and for Neuroim- そしてニューロイム-- 0.46
analysis,” 2006. 2006年「分析」。 0.87
Jon arIEEE 2016, jon arieee 2016参加報告 0.65
Rethinking arXiv IEEE Trans. arXivの再考 IEEE Trans。 0.81
Med. algorithms,” 薬だ アルゴリズム”だ。 0.60
networks,” models,” ネットワーク”だ。 モデル”。 0.70
Imag., vol. and と。 Vol. そして 0.63
applica- applica (複数形 applicas) 0.22
2019. in and for 2019. で そして 0.66
for ですから 0.55
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。