論文の概要、ライセンス

# (参考訳) ct画像ハーモニゼーションによる放射線研究の促進 [全文訳有]

CT Image Harmonization for Enhancing Radiomics Studies ( http://arxiv.org/abs/2107.01337v1 )

ライセンス: CC BY-SA 4.0
Md Selim, Jie Zhang, Baowei Fei, Guo-Qiang Zhang, Jin Chen(参考訳) CT(Computed Tomography)では顕著な進歩があるが,非標準化プロトコルによるCT画像の撮影は放射線学的特徴の再現性が低く,大規模にCT画像解析の障壁を形成している。 RadiomicGANは、非標準再構成カーネルによる誤差を効果的に軽減するために開発された。 radiomicganは、事前訓練された層と訓練可能な層の両方を含むハイブリッドニューラルブロックで構成され、放射能の特徴分布を効率的に学習する。 Dynamic Window-based Trainingと呼ばれる新しいトレーニング手法が開発され、トレーニング済みのモデルを医療画像領域にスムーズに変換する。 1401の放射能特性を用いて評価したモデル性能は、RadiomicGANが最先端の画像標準化モデルよりも明らかに優れていることを示している。

While remarkable advances have been made in Computed Tomography (CT), capturing CT images with non-standardized protocols causes low reproducibility regarding radiomic features, forming a barrier on CT image analysis in a large scale. RadiomicGAN is developed to effectively mitigate the discrepancy caused by using non-standard reconstruction kernels. RadiomicGAN consists of hybrid neural blocks including both pre-trained and trainable layers adopted to learn radiomic feature distributions efficiently. A novel training approach, called Dynamic Window-based Training, has been developed to smoothly transform the pre-trained model to the medical imaging domain. Model performance evaluated using 1401 radiomic features show that RadiomicGAN clearly outperforms the state-of-art image standardization models.
公開日: Sat, 3 Jul 2021 04:03:42 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 l u J 1 2 0 2 l u J 0.85
3 ] V I . 3 ] V 私は。 0.82
s s e e [ 1 v 7 3 3 1 0 s s e [ 1 v 7 3 3 1 0 0.77
. 7 0 1 2 : v i X r a . 7 0 1 2 : v i X r a 0.85
CT Image Harmonization for Enhancing Radiomics Studies CT画像の高調波化 放射線学 0.72
Md Selim1,3, Jie Zhang, PhD2, Baowei Fei, PhD5,6, Guo-Qiang Zhang, PhD7 , Md Selim1,3, Jie Zhang, PhD2, Baowei Fei, PhD5,6, Guo-Qiang Zhang, PhD7 0.76
Jin Chen, PhD1,3,4 ジンチェン phd1,3,4 0.46
1 Department of Computer Science, University of Kentucky, Lexington, KY 1 ケンタッキー大学コンピュータサイエンス科、レキシントン校、KY 0.59
2 Department of Radiology, University of Kentucky, Lexington, KY ケンタッキー州レキシントン大学放射線学科2科 0.49
3 Institute for Biomedical Informatics, University of Kentucky, Lexington, KY 3 institute for biomedical informatics, university of kentucky, lexington, ky 0.74
4 Department of Internal Medicine, University of Kentucky, Lexington, KY ケンタッキー州レキシントンにあるケンタッキー大学内科医学部 0.39
5 Department of Bioengineering, University of Texas at Dallas, Richardson, TX テキサス大学ダラス校, リチャードソン校, tx 生物工学科 0.52
6 Department of Radiology, UT Southwestern Medical Center, Dallas, TX 7 The University of Texas Health Science Center at Houston, Houston, TX テキサス州ヒューストンのテキサス大学健康科学センター(University of Texas Health Science Center at Houston, Houston, TX)。
訳抜け防止モード: ダラス、UTサウスウェスタン医療センター放射線学科6科 TX 7 ヒューストンにあるテキサス大学健康科学センター。 Houston (複数形 Houstons)
0.79
8 Abstract. While remarkable advances have been made in Computed Tomography (CT), capturing CT images with non-standardized protocols causes low reproducibility regarding radiomic features, forming a barrier on CT image analysis in a large scale. 8 抽象。 CT(Computed Tomography)では顕著な進歩があるが,非標準化プロトコルによるCT画像の撮影は放射線学的特徴の再現性が低く,大規模にCT画像解析の障壁を形成している。 0.79
RadiomicGAN is developed to effectively mitigate the discrepancy caused by using non-standard reconstruction kernels. RadiomicGANは、非標準再構成カーネルによる誤差を効果的に軽減するために開発された。 0.59
RadiomicGAN consists of hybrid neural blocks including both pre-trained and trainable layers adopted to learn radiomic feature distributions efficiently. radiomicganは、事前訓練された層と訓練可能な層の両方を含むハイブリッドニューラルブロックで構成され、放射能の特徴分布を効率的に学習する。 0.46
A novel training approach, called Dynamic Window-based Training, has been developed to smoothly transform the pre-trained model to the medical imaging domain. Dynamic Window-based Trainingと呼ばれる新しいトレーニング手法が開発され、トレーニング済みのモデルを医療画像領域にスムーズに変換する。 0.84
Model performance evaluated using 1401 radiomic features show that RadiomicGAN clearly outperforms the state-of-art image standardization models. 1401の放射能特性を用いて評価したモデル性能は、RadiomicGANが最先端の画像標準化モデルよりも明らかに優れていることを示している。 0.49
Keywords: Computed Tomography · Generative Adversarial Network キーワード:Computed Tomography ·ジェネレーティブ・アドバイサル・ネットワーク 0.64
1 Introduction As one of the most popular diagnostic image modalities routinely used for assessing anatomical tissue characteristics for disease management [3], computed tomography (CT) provides the flexibility of customizing acquisition and image reconstruction protocols to meet an individual’s clinical needs [19]. 1 はじめに 疾患管理のための解剖学的組織特性を評価するために日常的に使用される最も一般的な診断画像モダリティの1つとして、ctは、個人の臨床ニーズを満たすために、獲得と画像再構成プロトコルをカスタマイズする柔軟性を提供する [19]。 0.73
However, capturing CT images with non-standardized protocols could result in inconsistent radiomic features in both intra-CT (by changing CT acquisition parameters) and inter-CT (by comparing different scanners with the same acquisition parameters) tests. しかし、標準化されていないプロトコルでCT画像をキャプチャすることは、CT内(CT取得パラメータを変更する)とCT間(異なるスキャナと同一の取得パラメータを比較する)の両方で矛盾する放射能特性をもたらす可能性がある。 0.64
The low reproducibility regarding radiomic features, such as intensity, shape, and texture, for CT imaging, may forms a barrier to analyzing CT images in a large scale, a.k.a. CT画像の強度、形状、テクスチャなどの放射能の特徴に関する低い再現性は、CT画像を大規模に分析する障壁を形成する可能性がある。 0.71
radiomics [2,13]. 放射能[2,13]. 0.77
The radiomic feature discrepancy problem can be addressed by either normalizing the radiomic features of all the non-standard images or standardizing 放射能特徴差問題は、すべての非標準画像の放射能特徴を正規化するか、標準化することで解決できる。
訳抜け防止モード: 放射能特徴差問題に対処できる 非標準画像の放射能特性を標準化するか、標準化するか
0.71
英語(論文から抽出)日本語訳スコア
2 M. Selim et al 2 M.Selim et al 0.76
CT images and then extracting the radiomic features from the standardized images. CT画像を解析し、標準化された画像から放射能の特徴を抽出する。 0.58
The former solution, however, is difficult, since the distributions of the radiomic features are not well defined [7]. しかし, 放射線学的特徴の分布は明確に定義されていない[7]ため, 前者の解は困難である。 0.75
For the latter one, image synthesis algorithms have been recently developed aiming to synthesize images with similar feature-based distributions compared to that of the target images while preserving anatomic details [5,17,5,21]. 後者では, 画像合成アルゴリズムが最近開発され, 解剖学的詳細を保存しながら, 対象画像と類似した特徴に基づく画像の合成がされている [5,17,5,21]。 0.75
Mathematically, let x be a CT image acquired using a non-standard reconstruction kernel, y be its corresponding standard image, the model aims to compose a synthetic image y(cid:48) from x, such that y(cid:48) follows the feature distributions of y rather than x. 数学的には、xを非標準再構成カーネルを用いて取得したCT画像とし、yを対応する標準画像とし、y(cid:48)がxではなくyの特徴分布に従うように、xから合成画像y(cid:48)を構成することを目的とする。 0.69
Choe et al [4] developed a Convolutional Neural Network (CNN)-based approach for CT image standardization. Choe et al [4] はCT画像標準化のための畳み込みニューラルネットワーク(CNN)ベースのアプローチを開発した。 0.79
The model learns the residual representation of the standard images; and then a residual image is combined with a non-standard image to generate a synthesized image. モデルが標準画像の残差表現を学習し、残差画像と非標準画像とを結合して合成画像を生成する。
訳抜け防止モード: モデルは標準画像の残差表現を学習する ; そして、残像が標準でない画像と結合される 合成画像を生成します
0.77
The model, since it trains a CNN from scratch, requires large training data. このモデルは、cnnをスクラッチからトレーニングするため、大規模なトレーニングデータを必要とする。 0.63
Liang et al [18] proposed a cGAN-based [14] CT image standardization model named GANai. Liang et al [18] は GANAI という cGAN ベースの [14] CT 画像標準化モデルを提案した。 0.70
A alternative training strategy was developed to effectively learn the data distribution. データ配布を効果的に学習するための代替のトレーニング戦略が開発された。 0.65
GANai achieved better performance comparing with cGAN and the traditional histogram matching approach [11]. GANAIは,cGANと従来のヒストグラムマッチング手法 [11]と比較して,優れた性能を示した。 0.70
However, GANai focuses on the relatively easier image patch synthesis problem rather than whole DICOM image synthesis problem. しかし、GANAIはDICOM画像合成問題よりも比較的簡単な画像パッチ合成問題に焦点を当てている。 0.74
Selim et al [21] proposed a GAN-based CT image standardization model named STAN-CT. Selimら[21]はSTAN-CTというGANベースのCT画像標準化モデルを提案した。 0.61
In STAN-CT, a loss function was developed to consider both the latent space loss and the feature space loss. STAN-CTでは、遅延空間損失と特徴空間損失の両方を考慮した損失関数が開発された。
訳抜け防止モード: STAN-CTにおける損失関数の開発 潜在空間の損失と 特徴空間の損失を 考慮して下さい。
0.83
While the former is adopted for the generator to establish a one-to-one mapping from standard images to synthesized images, the latter allows the discriminator to critic the texture features of both standard and synthesized images. 前者は標準画像から合成画像への1対1マッピングを確立するために用いられるが、後者は標準画像と合成画像の両方のテクスチャの特徴を批判している。 0.68
Similar to GANai, STAN-CT was applied at image patches and only a few texture features were used as the evaluation criteria. GANAIと同様、STAN-CTは画像パッチに適用され、評価基準としてわずかにテクスチャの特徴しか使用されなかった。 0.65
All these models need to be trained from scratch using a relatively large data which are difficult to obtain. これらのモデルはすべて、入手が難しい比較的大きなデータを使って、ゼロからトレーニングする必要があります。 0.69
To relax the demand of large data, transfer learning may be adopted. 大規模データの需要を緩和するために、転送学習が採用される。 0.69
One of the computational challenges is to adopt models pretrained on natural image domain due to different dynamic ranges. 計算上の課題の1つは、異なるダイナミックレンジのために自然画像領域で事前学習されたモデルを採用することである。
訳抜け防止モード: 計算上の課題の1つは ダイナミックレンジの異なる自然画像領域で事前訓練されたモデルを採用する。
0.75
In particular, the pixel intensity of a natural image ranges from 0 to 255 (8-bit), while for the state-of-the-art CT scanners, standard 12-bit depth images are commonly utilized, resulting in a much wider Hounsfield Unit (HU) range that scales from -1,024 to 3,071 [8]. 特に、自然画像の画素強度は0から255 (8-bit) までであり、最先端のctスキャナーでは標準の12ビット深度画像が一般的に利用され、-1,024から3,071 [8]までスケールするより広いhounsfield unit (hu) 範囲となる。 0.85
In this paper, we present RadiomicGAN, a novel GAN-based deep learning model, for CT image standardization and normalization focused on harmonizing CT images acquired with non-standard reconstruction kernels as it is one of the most significant factors of feature inconsistency [4]. 本稿では,非標準レコンストラクションカーネルで取得したct画像の調和に着目した,ct画像標準化と正規化のための新しいgan型深層学習モデルradiomicganを提案する [4]。
訳抜け防止モード: 本稿では,新しいGANに基づくディープラーニングモデルであるRadiomicGANを提案する。 非標準再構成カーネルで取得したCT画像との調和に着目したCT画像の標準化と標準化 機能不整合の最も重要な要因の1つです [4 ]
0.81
RadiomicGAN employs a hybrid architecture for image texture feature extraction and embedding. RadiomicGANは画像テクスチャの特徴抽出と埋め込みにハイブリッドアーキテクチャを採用している。 0.71
Its encoder consists of multiple consecutive neural blocks including both pre-trained and trainable convolutional layers. エンコーダは、トレーニング済みおよびトレーニング可能な畳み込み層を含む、連続した複数の神経ブロックで構成されている。 0.50
To address the dynamic pixel range-related problem in transfer learning, RadiomicGAN uses a new training strategy named Dynamic Window-based Training (DWT), which allows us to train a model using pixels within a selected range called “window”. 移動学習における動的ピクセル範囲の問題に対処するため、RadiomicGANはDynamic Window-based Training (DWT)と呼ばれる新しいトレーニング戦略を使用し、"window"と呼ばれる選択範囲内で画素を用いたモデルをトレーニングできる。 0.84
The range of a window can be 窓の範囲は 0.43
英語(論文から抽出)日本語訳スコア
RadiomicGAN RadiomicGAN 0.85
3 Fig. 1: Architecture of RadiomicGAN. 3 フィギュア。 1:RadiomicGANのアーキテクチャ。 0.66
The generator G is a combination of a U-Net and a pre-trained VGG convolutional layers. ジェネレータGは、U−Netと予め訓練されたVGG畳み込み層との組み合わせである。 0.58
The pre-trained frozen layers with trainable layer(s) encode radiomic features effectively, and layers in the decoder reconstruct synthesized images using the encoded features. トレーニング可能な層を有する予め訓練された凍結層は、放射能特性を効果的に符号化し、デコーダ内の層は、符号化された特徴を用いて合成画像を再構成する。
訳抜け防止モード: トレーニング可能な層を持つ事前訓練された凍結層は、放射能特性を効果的に符号化する。 デコーダの層は 合成画像を再構成する
0.73
automatically broaden or shrank based on the pixels where the model suffers most in the previous training iteration, allowing us to fine-tune the trainable layers in RadiomicGAN using the frequently appeared pixels in the window. モデルが以前のトレーニングイテレーションで最も苦しむピクセルに基づいて自動的に拡大または縮小し、RadiomicGANのトレーニング可能なレイヤをウィンドウに頻繁に現れるピクセルを使って微調整できる。 0.70
In summary, given its hybrid network structure, RadiomicGAN can effectively learn the radiomic feature distributions from the standard CT images and then harmonize non-standard CT images. 要約すると、RadiomicGANはそのハイブリッドネットワーク構造から、標準CT画像から放射能特徴分布を効果的に学習し、非標準CT画像と調和させることができる。 0.70
A dynamic window-based training approach is developed to effectively address the pixel range difference problem and thus enable transfer learning in the medical image domain. 動的ウィンドウベーストレーニング手法を開発し、ピクセル範囲差問題に効果的に対処し、医用画像領域における転写学習を可能にする。
訳抜け防止モード: 動的ウィンドウベーストレーニング手法の開発 ピクセル範囲差問題に効果的に対処する 医用画像領域における転写学習を可能にする。
0.79
2 Method In RadiomicGAN, by passing a non-standard CT image x through a series of neural blocks, which consists of both pre-trained and trainable convolutional layers, domain-specific texture features of x can be effectively extracted. 2 方法 RadiomicGANでは、トレーニング済みおよびトレーニング可能な畳み込み層からなる一連の神経ブロックを非標準CT画像xを通過させることにより、xのドメイン固有のテクスチャ特性を効果的に抽出することができる。 0.77
In the following text, we introduce the hybrid architecture for texture feature extraction and embedding and the dynamic window training, which are the two key components of RadiomicGAN. 以下のテキストでは、テクスチャの特徴抽出と埋め込みのためのハイブリッドアーキテクチャと、RadiomicGANの2つの重要なコンポーネントである動的ウィンドウトレーニングを紹介する。 0.82
2.1 Hybrid architecture for efficient texture feature embedding The architecture of RadiomicGAN shown in Figure 1 consists of a generator G and a discriminator D. The discriminator of RadiomicGAN D is a fully convolutional neural network [14]. 2.1 図1に示す放射性ミガンのアーキテクチャを組み込んだ効率的なテクスチャ特徴量のためのハイブリッドアーキテクチャ。ジェネレータgと識別器dからなる。放射性ミガンdの判別器は完全な畳み込みニューラルネットワーク[14]である。 0.66
The encoder of the generator G is constructed as a series of consecutive neural blocks containing both pre-trained and trainable layers inspired by the applications of pre-trained VGG for style transfer [9,10]. ジェネレータGのエンコーダは、予め訓練されたVGGのスタイル転送への応用にインスパイアされたトレーニング済み層とトレーニング可能な層の両方を含む連続したニューラルネットワークブロックとして構成される[9,10]。 0.62
Specifically, every neural block includes multiple pre-trained VGG layers (Figure 1, light blue), which remain frozen during network training, and a trainable layer (Figure 1, dark blue) that works as filter to extract and forward fine-tocoarse texture features to the corresponding decoding layer with a skip connection aiming to preserve the lost features during down-sampling [20]. 具体的には、ネットワークトレーニング中に凍結した複数の事前トレーニングされたVGG層(図1、淡青色)と、ダウンサンプリング中の失われた特徴の保存を目的としたスキップ接続を備えた対応するデコード層に微細なテクスチャ特徴を抽出・転送するフィルタとして機能するトレーニング可能な層(図1、暗青色)とを含む。 0.73
For example, the first neural block in Figure 1 includes two 512-by-512 pre-trained layers and 例えば、図1の最初の神経ブロックは、事前訓練された2つの512バイ512層を含む。 0.51
英語(論文から抽出)日本語訳スコア
4 M. Selim et al 4 M.Selim et al 0.76
Fig. 2: Dynamic selection framework. フィギュア。 2: 動的選択フレームワーク。 0.60
Given a set of CT images synthesized by the generator G, the non-trainable discriminator D is used to generate the corresponding class activation mappings (CAMs). ジェネレータGで合成された一連のCT画像に対し、学習不能判別器Dを用いて対応するクラスアクティベーションマッピング(CAM)を生成する。 0.64
A window range is defined using all the hot-spots in the CAMs. CAMのすべてのホットスポットを使用してウィンドウ範囲を定義する。 0.77
RadiomicGAN is then continuously trained using the updated training data. その後、RadiomicGANは更新されたトレーニングデータを使用して継続的にトレーニングされる。 0.49
a 512-by-512 trainable layer. 512×512のトレーニング可能な層。 0.53
Both the first and the second layers are constricted by applying the convolution operation with stride=1 on the previous layer. 第1層及び第2層は、前層にstride=1と畳み込み操作を施すことにより収縮する。 0.80
The third layer in the same neural block, however, is trainable and is designed to filter out the redundant features and to propagate domain-specific information onto the corresponding decoding layer. しかし、同じニューラルブロックの第3層はトレーニング可能で、冗長な特徴をフィルタリングし、対応する復号層にドメイン固有の情報を伝播するように設計されている。
訳抜け防止モード: しかし同じ神経ブロックの3番目の層は 冗長な機能をフィルタリングし、ドメイン - 特定の情報を対応するデコード層に伝播するように設計されている。
0.84
Since we expect to standardize the texture features while keeping the shape features unchanged [9], only the first four groups of convolutional layers of a pre-trained VGG-19 network are adopted. 形状特性を一定に保ちながらテクスチャ特性の標準化を期待するので、事前訓練されたVGG-19ネットワークの最初の4つの畳み込み層のみが採用される。 0.73
RadiomicGAN is trained using the adversarial loss with L1 regularization [14]. 放射線GANはL1正則化[14]で対向損失を用いて訓練される。 0.56
2.2 Dynamic window-based training for efficient information 2.2 効率的な情報のための動的ウィンドウベーストレーニング 0.60
transformation transformation 0.85
Unlike natural images with pixel values ranging from 0 to 255 (i.e. ピクセル値が0から255(すなわち)の自然画像と異なります。 0.81
8-bit encoding), CT images follow the 16-bit encoding and thus have a much wider dynamic range. 8ビットエンコーディング)、CT画像は16ビットエンコーディングに従うため、より広いダイナミックレンジを持つ。 0.79
To effectively transfer the learned information from the 8-bit pixel domain to the 12 bit pixel domain, we introduce a new training strategy, called Dynamic Window-based Training (DWT). 学習情報を8ビットのピクセルドメインから12ビットのピクセルドメインに効果的に転送するために,DWT(Dynamic Window-based Training)と呼ばれる新しいトレーニング戦略を導入する。 0.86
DWT is designed to exposes a deep learning model to the most suitable pixel range in each training iteration, where the lower bound and the upper bound of a window can be automatically updated according to the training results in the previous iterations. DWTは、トレーニングイテレーション毎に最も適切なピクセル範囲にディープラーニングモデルを公開するように設計されており、前回のイテレーションのトレーニング結果に応じて、ウィンドウの下限と上限を自動的に更新することができる。 0.70
Compared to the traditional min-max approach that normalizes the whole HU range to [0, 1], DWT allows the model to be gradually exposed to the data points with more local intensity details. HU の範囲全体を [0, 1] に正規化する従来の min-max アプローチと比較して、DWT はより局所的な強度の詳細なデータポイントにモデルを徐々に露出させることができる。 0.79
It enables the utilization of a VGG-19 trained with natural images in ImageNet [6] for CT image standardization. これにより、ImageNet [6]で自然画像で訓練されたVGG-19をCT画像の標準化に利用することができる。 0.66
We introduce two DWT steps, namely fixed growing and dynamic selection, of DWT in the following text. 以下のテキストでDWTの2つのステップ、すなわち、固定的な成長と動的選択を導入する。 0.74
Window Training Step 1. ウィンドウトレーニングステップ1。 0.71
Fixed Growing. In the fixed growing approach, we gradually expand the pixel range of a window with a fixed pace. 固定栽培。 固定成長アプローチでは,ウィンドウの画素範囲を一定ペースで徐々に拡大する。 0.62
For example, in the first iteration of training, the window only includes HU numbers within a narrow effective pixel range ([−1024,−769]). 例えば、トレーニングの最初のイテレーションでは、ウィンドウは狭い有効ピクセル範囲([−1024,−769])内のhu番号のみを含む。 0.65
Then, the window size is increased by 256 pixels (i.e., from [−1024,−769] to [−1024,−511]), allowing for more pixels being considered in the training process. すると、ウィンドウサイズは256ピクセル(すなわち [−1024,−769] から [−1024,−511] )増加し、トレーニングプロセスにおいてより多くのピクセルが考慮される。 0.73
Note the window size is increased only if the model accuracy exceeds threshold thacc or reaches maximum training epoch thη. モデル精度が閾値tacを超えるか、最大トレーニング期間thηに達する場合にのみ、ウィンドウサイズが増加することに注意。 0.70
Specifically, for a particular training epoch ni and a given window wi, the training dataset DS is clipped and normalized based on the min-max value of 具体的には、特定のトレーニングエポックニと所定のウィンドウwiに対して、min-max値に基づいてトレーニングデータセットDSをクリップして正規化する。 0.65
英語(論文から抽出)日本語訳スコア
RadiomicGAN RadiomicGAN 0.85
5 w. With the clipped dataset, the model trains until the model accuracy exceeds threshold thacc or reaches maximum training epoch thη. 5 w. クリップされたデータセットでは、モデルの精度が閾値tacを超えるまでトレーニングするか、最大トレーニング期間thηに達する。 0.75
Throughout the training process, we repeat the process until the whole HU range is covered. トレーニングプロセスを通じて、HU範囲全体がカバーされるまで、プロセスを繰り返します。 0.74
Window Training Step 2. ウィンドウトレーニングステップ2。 0.72
Dynamic Selection. Unlike the fixed growing approach, the window range in the dynamic selection approach is determined by using the Class Activation Map (CAM), which identifies the subareas of the input images contributed most for a specific classification task [26]. 動的選択。 固定的な成長アプローチとは異なり、動的選択手法のウィンドウ範囲は、特定の分類タスク [26] に最も寄与した入力画像のサブ領域を識別するクラス活性化マップ(CAM)を用いて決定される。 0.81
Hence, the pace of window expansion or shrinking is not fixed, allowing the model to focus on the areas from where the discriminator of RadiomicGAN D can determine a synthesized image as non-standard. したがって、ウィンドウ拡大や縮小のペースは固定されず、RadiomicGAN Dの判別器が合成画像を非標準として決定できる領域に集中することができる。 0.68
The dynamic selection approach is illustrated in Figure 2. 動的選択アプローチは図2に示されます。 0.82
Let P be a randomly selected subset of the training data DS and P(cid:48) be its corresponding synthesized images. PをトレーニングデータDSのランダムに選択されたサブセットとし、P(cid:48)を対応する合成画像とする。 0.79
After each training epoch, we feed P (cid:48) to the current discriminator D and calculate a set of CAMs C using Grad-CAM [22]. 各訓練エポック後、現在の判別器DにP(cid:48)を供給し、Grad-CAM[22]を用いてCAMのセットCを算出する。 0.69
During the calculation, D remains freeze. 計算中、Dは凍結している。 0.69
For each image pi ∈ P (cid:48), the layer before the softmax layer in D indicates the probability of being a standard and non-standard image, which is used to calculate the CAM ci of pi. 各画像 pi ∈ P (cid:48) に対して、D のソフトマックス層の前の層は標準像であり、非標準像であり、pi の CAM ci を計算するために用いられる。 0.79
CAM can be visualized as a heat-map where values close to 1 are critical for determining the image being non-standard. CAMは1に近い値が非標準画像を決定するために重要であるヒートマップとして視覚化することができる。 0.69
With a user given threshold thf ail, we can determine the subareas of pi contributed most for predicting pi to be a non-standard image (thf ail ∈ [0, 1]). ユーザが閾値 thf ail を与えられた場合、pi を非標準画像(thf ail ∈ [0, 1])として予測するのに最も寄与した pi の部分領域を決定できる。 0.79
For image pi, if a pixel’s value in the CAM is greater than thf ail, the corresponding CT image pixel value is added to a pixel intensity list named Wi. 画像piについては、CAMにおける画素値がthfail以上であれば、対応するCT画像画素値をWiという画素強度リストに追加する。 0.67
All the pixels with their frequency equal to 1 are discarded from Wi considering them as image noise. 周波数が1に等しいすべての画素は、画像ノイズとしてWiから捨てられる。 0.71
This process is repeated by randomly selecting subsets of images from the training data. このプロセスは、トレーニングデータから画像のサブセットをランダムに選択することで繰り返される。 0.78
The window range is defined by merging all the pixel intensity lists. ウィンドウ範囲はすべてのピクセルインテンシティリストをマージすることで定義される。 0.70
The window range is recalculated in every epoch and the model is trained based on the current window range. ウィンドウ範囲はエポック毎に再計算され、モデルは現在のウィンドウ範囲に基づいてトレーニングされる。 0.83
3 Experimental Results 3.1 Data, Model, and Evaluation Metric In total 14,372 CT image slices from lung cancer patient scans and phantom scans were obtained using three different reconstruction kernels (Bl57, Bl64, and Br40) and four different slice thicknesses (0.5, 1, 1.5, 3mm) using the Siemens CT Somatom Force scanner. 肺がん患者スキャンおよびファントムスキャンから得られた合計14,372枚のct画像スライスにおける3.1データ,モデル,評価指標を3つの異なる再構成核(bl57,bl64,br40)と4つの異なるスライス厚さ(0.5,1,1.5,3mm)を用いて求めた。 0.80
We adopted Bl64 kernel as the standard CT imaging protocol, since it has been widely used in clinical practice for lung cancer diagnosis [18]. bl64カーネルを標準ctイメージングプロトコルとして採用し,肺癌診断に広く用いられている[18]。
訳抜け防止モード: 我々は,標準CT画像プロトコルとしてBl64カーネルを採用した。 肺癌の診断に広く用いられている[18]。
0.74
Two testing datasets were prepared for RadiomicGAN performance evaluation. RadiomicGANの性能評価のために2つの試験データセットを用意した。 0.58
The first testing data were captured using the reconstruction kernel Bl57. 最初のテストデータはレコンストラクションカーネルbl57を使用して取得された。 0.64
The second testing data were captured using the reconstruction kernel Br40. 第2のテストデータはレコンストラクションカーネルbr40を使用して取得された。 0.59
Each test dataset contains 387 image slices and have paired target standard images (Bl64). 各テストデータセットは、387の画像スライスを含み、ペア化されたターゲット標準画像(Bl64)を有する。 0.64
HU number range was set to between -1024 and 1000 in the standardization process, since most pixel values belong to this range. HU番号範囲は、ほとんどのピクセル値がこの範囲に属するため、標準化プロセスにおいて1024から1000に設定された。 0.76
Random weights were used during the network initialization phase. ネットワーク初期化段階でランダムウェイトが使用された。 0.65
Maximum training epochs were set to 30 with the learning rate being 0.0001 with momentum 0.5. 最大トレーニング期間は30時間に設定し,学習率0.0001,運動量0.5。 0.67
Three state-of-the-art CT image standardization models, i.e. 3つの最先端CT画像標準化モデル、すなわち 0.74
Choe et al [4], GANai [18], and STAN-CT [21], were selected for performance comparison. Choe et al [4], GANAI [18], STAN-CT [21]が性能比較のために選択された。 0.82
All すべて 0.74
英語(論文から抽出)日本語訳スコア
6 M. Selim et al 6 M.Selim et al 0.76
Table 1: CT image standardization model performance comparison for images acquired with Bl57 or Br40 kernels. 表1:CT画像標準化モデルBl57またはBr40カーネルで取得した画像のパフォーマンス比較。 0.74
The values represent the average (± SD) number of reproducible radiomic features of the synthesized images. この値は,合成画像の再現可能な放射能特性の平均値 (± SD) を表す。 0.82
The numbers were rounded to the nearest integer. 数字は一番近い整数に丸められた。 0.75
Input Coe et al 入力 Coe et al 0.79
GANai STAN-CT 花合 STAN-CT 0.45
HU range [300, 800] [-800, -300] [-100, 250] [300, 800] [-800, -300] 246 ± 16 854 ± 14 448 ± 14 357 ± 47 796 ± 14 905 ± 47 520 ± 45 850 ± 15 979 ± 47 487 ± 8 1053 ± 10 933 ± 42 RadiomicGAN1 1226 ± 47 1257 ± 5 902 ± 20 1036 ± 25 1131 ± 29 1030 ± 15 1027 ± 29 RadiomicGAN2 1153 ± 33 1183 ± 55 853 ± 54 1087 ± 33 RadiomicGAN 1168 ± 36 1204 ± 27 853 ± 54 1126 ± 43 1108 ± 25 1047 ± 36 HUレンジ [300, 800] [-800, -300] [-100, 250] [300, 800] [-800, -300] 246 ± 16 854 ± 14 448 ± 14 357 ± 47 796 ± 14 905 ± 47 520 ± 45 850 ± 15 979 ± 47 487 ± 8 1053 ± 10 933 ± 42 RadiomicGAN1 1226 ± 47 1257 ± 5 902 ± 20 1036 ± 25 1131 ± 29 1030 ± 15 1027 ± 29 RadiomicGAN2 1153 ± 33 1183 ± 55 853 ± 54 1087 ± 33 RadiomicGAN 1168 ± 36 1204 ± 27 853 ± 54 1126 ± 43 1108 ± 25 1047 ± 36 0.77
[-100, 250] 303 ± 20 437 ± 38 572 ± 10 588 ± 10 1098 ± 44 [-100, 250] 303 ± 20 437 ± 38 572 ± 10 588 ± 10 1098 ± 44 0.85
Bl57 589 ± 20 457 ± 16 605 ± 47 511 ± 40 782 ± 1 817 ± 20 824 ± 1 594 ± 9 Bl57 589 ± 20 457 ± 16 605 ± 47 511 ± 40 782 ± 1 817 ± 20 824 ± 1 594 ± 9 0.88
Br40 the models, including RadiomicGAN, were developed based on TensorFlow [1] and trained using the same training data. Br40 radiomicganを含むモデルはtensorflow [1]に基づいて開発され、同じトレーニングデータを使用してトレーニングされた。 0.77
Model performance was evaluated systematically at the whole image (DICOM) level and with randomly selected regions of interest (ROIs) in three HU ranges, including [−800,−300], [−100, 250], and [300, 800]. モデル性能は画像全体(DICOM)レベルで, [-800,-300], [-100, 250], [300, 800]を含む3つのHU領域においてランダムに選択された関心領域(ROI)で評価した。
訳抜け防止モード: モデル性能を画像全体(DICOM)レベルで体系的に評価した。 そして、ランダムに選択された3つのHU範囲の関心領域(ROI)で。 including [ −800,−300 ], [ −100, 250 ], and [ 300 , 800 ] .
0.89
For each CT image or ROI, in total 1,401 radiomic features were extracted using IBEX [24]. IBEX[24]を用いて各CT像, ROIについて, 合計1,401個の放射能像を抽出した。 0.60
We examined the radiomic features reproducibility performance using Concordance Correlation Coefficient(CCC) [16]. 一致相関係数(CCC) [16] を用いた放射能特性再現性の評価を行った。 0.70
CCC represents the correlation between the standard and the non-standard image features in a given features class. CCCは、所定の特徴クラスにおける標準画像特徴と非標準画像特徴との相関を表す。 0.79
CCC ranges from -1 to 1 and is the higher the better. CCCは-1から1の範囲で、高い値である。 0.76
We conclude that a radiomic feature is reproducible if the synthesized image is more than 85% similar to the corresponding standard image (i.e., CCC > 0.85) [4,25]. 合成画像が対応する標準画像(CCC > 0.85) [4,25] と85%以上類似している場合, 放射能特性は再現可能である。 0.82
Furthermore, we evaluated image quality using Structural SIMilarity (SSIM) [23] and Peak Signal-to-Noise Ratio (PSNR) [15]. さらに,SSIM [23] と Peak Signal-to-Noise Ratio (PSNR) [15] を用いた画質評価を行った。 0.86
PSNR is defined as a logged ratio of the peak signal and the mean-square-error between the synthesized and the standard images [12] and is the higher the better. PSNRは、ピーク信号の対数比と、合成された画像と標準画像[12]の平均2乗誤差とで定義され、より高い値である。 0.70
SSIM is defined as a co-relation between the synthesized and the standard images with values ranges between -1 to 1, and the value 1 indicates prefect structural similarity. ssim は -1 から 1 までの値を持つ合成画像と標準画像の相互関係として定義され、値 1 は先行した構造的類似性を示す。 0.74
3.2 Performance Evaluation We compared RadiomicGAN with Choe et al, GANai, and STAN-CT using all the three evaluation metrics on both real patient data and phantom data. 3.2 性能評価 実際の患者データと幻データの両方の3つの評価指標を用いて,RadiomicGANをChoe et al,GANAI,STAN-CTと比較した。 0.77
We considered three versions of RadiomicGAN. 我々はラジオミガンを3種類検討した。 0.60
RadiomicGAN was trained using the proposed window training strategy where both the fixed growing approach and the dynamic selection approach were used consecutively. 固定成長法と動的選択法の両方を連続的に使用するウィンドウトレーニング手法を用いてRadiomicGANを訓練した。 0.72
RadiomicGAN1 was a variation trained using the fixed growing approach only, and RadiomicGAN2 was another variation trained using the dynamic selection approach only. RadiomicGAN1は固定的な成長アプローチのみを用いてトレーニングされた変種であり、RadiomicGAN2は動的選択アプローチのみを用いてトレーニングされた変種である。 0.67
Table 1 indicates the effectiveness of CT image standardization on ROIs with different HU ranges. 表1は、異なるHU範囲のROIに対するCT画像の標準化の有効性を示す。 0.70
RadiomicGAN1, RadiomicGAN2, and RadiomicGAN outperformed the models-to-compare on all ROIs. RadiomicGAN1、RadiomicGAN2、RadiomicGANはすべてのROIでモデルと性能を上回りました。 0.64
Here, the column named “Input” shows the performance of the images before standardization. ここで“Input”という名前のカラムは、標準化前にイメージのパフォーマンスを示しています。 0.65
英語(論文から抽出)日本語訳スコア
In Table 2, the PSNR scores show that for CT images captured with Br40 表2では、PSNRスコアは、Br40で撮影されたCT画像について示している。 0.56
or Bl57 kernel, RadiomicGAN achieved the best performance. あるいはBl57カーネルでは、RadiomicGANが最高のパフォーマンスを達成した。 0.59
RadiomicGAN RadiomicGAN 0.85
7 Table 2: PSNR and SSIM scores for images acquired with Bl57 or Br40 kernels. 7 表2:PSNRとSSIMスコアはBl57またはBr40カーネルで取得される。 0.80
PSNR SSIM SSIM PSNR SSIM SSIM 0.85
Coe et al GANai Coe et al 花合 0.58
Br40 0.9916 ± 0.0020 27.51 ± 0.90 0.9916 ± 0.0021 27.69 ± 0.79 0.9916 ± 0.0021 27.68 ± 0.74 RadiomicGAN1 33.12 ± 0.73 0.9918 ± 0.0020 0.9928 ± 0.0015 RadiomicGAN2 33.24 ± 0.12 RadiomicGAN 33.51 ± 0.23 0.9980 ± 0.0005 33.28 ± 0.36 0.9947 ± 0.0012 Br40 0.9916 ± 0.0020 27.51 ± 0.90 0.9916 ± 0.0021 27.69 ± 0.79 0.9916 ± 0.0021 27.68 ± 0.74 RadiomicGAN1 33.12 ± 0.73 0.9918 ± 0.0020 0.9928 ± 0.0015 RadiomicGAN2 33.24 ± 0.12 RadiomicGAN 33.51 ± 0.23 0.9980 ± 0.0005 33.28 ± 0.36 0.9947 ± 0.0012 0.52
Bl57 0.9949 ± 0.0038 0.9951 ± 0.0035 0.9952 ± 0.0022 0.9955 ± 0.0018 0.9955 ± 0.0016 Bl57 0.9949 ± 0.0038 0.9951 ± 0.0035 0.9952 ± 0.0022 0.9955 ± 0.0018 0.9955 ± 0.0016 0.53
STAN-CT PSNR STAN-CT PSNR 0.72
26.11 ± 0.22 26.11 ± 0.22 26.08 ± 0.23 28.15 ± 0.49 30.15 ± 0.16 26.11 ± 0.22 26.11 ± 0.22 26.08 ± 0.23 28.15 ± 0.49 30.15 ± 0.16 0.52
The SSIM scores show that all the models performed well on preserving the structural information. SSIMスコアは、すべてのモデルが構造情報を保存する上でうまく機能したことを示している。 0.61
The SSIM scores of RadiomicGAN were slightly higher than the others. RadiomicGANのSSIMスコアは他のスコアよりもわずかに高かった。 0.67
Fig. 3: CT image standardization case study. フィギュア。 3:ct画像標準化ケーススタディ。 0.58
An image with a tumor is used as a case study to show the visual quality of all the compared models. 腫瘍のある画像は、すべての比較モデルの視覚品質を示すために、ケーススタディとして使用される。 0.78
The green rectangle highlights a tumor and the display window is [-800, 800] HU. 緑の長方形は腫瘍を強調し、ディスプレイウィンドウは[-800, 800] huである。 0.78
Figure 3 illustrates the performance of all the models compared using a case study. 図3は、ケーススタディで比較したすべてのモデルのパフォーマンスを示しています。 0.71
The non-standard and the standard were phantom CT images acquired with the Br40 and Bl64 kernels respectively. 非標準および標準は、それぞれBr40とBl64カーネルで取得されたファントムCT画像である。 0.70
The tumor in the image was highlighted in a green box and was magnified in the right upper corner. 画像中の腫瘍は緑色の箱でハイライトされ、右上隅に拡大された。 0.67
The results of all the models were visualized as well. すべてのモデルの結果も可視化された。 0.78
A visual inspection indicates that the tumor image synthesized with RadiomicGAN was the most similar to the standard image. 画像検査では,RadiomicGANで合成した腫瘍像が標準画像と最もよく似ていることが示唆された。 0.67
The total number of reproducible features computed using CCC was 612 for RadiomicGAN, higher than all the compared methods (Choe et al: 183, GANai: 209, and STAN-CT: 307). CCCを用いて計算した再現性特徴の総数は, 放射能GANで612個であり, 比較法ではChoe et al: 183, GANai: 209, STAN-CT: 307であった。 0.83
The RadiomicGAN1 and RadiomicGAN2 had 487 and 512 reproducible features respectively, which were also better than the compared models. RadiomicGAN1とRadiomicGAN2はそれぞれ487と512の再現性を備えており、比較したモデルよりも優れていた。 0.77
The PSNR score of RadiomicGAN was 33.23, clearly higher than the compared methods (Choe et al: 26.08, GANai: 26.14, STAN-CT: 26.07). The PSNR score of RadiomicGAN was 33.23, clearly higher than the comparison methods (Choe et al: 26.08, GANai: 26.14, STAN-CT: 26.07)。 0.85
While RadiomicGAN has achieved satisfactory performance, it is critical to check whether the image standardization does help cancer diagnosis. RadiomicGANは良好な性能を示したが、画像の標準化ががんの診断に役立つかどうかを確認することは重要である。 0.63
Here, we aim to differentiate benign from malignant lung nodules using image features extracted from the standardized CT images. 今回,標準化ct画像から抽出した画像特徴を用いて良性病変と悪性肺結節を鑑別する。 0.72
We extracted 630 image features from six CT scans of pediatric sarcoma patients who had undergone resection of 手術を施行した小児肉腫6例のCT像から630画像の特徴を抽出した。 0.79
英語(論文から抽出)日本語訳スコア
8 M. Selim et al 8 M.Selim et al 0.76
Fig. 4: Heat map representation of image traits for six patients. フィギュア。 4) 熱マップによる6症例の像特性の表現 0.55
After image standardization, we found that eight image traits were consistently higher for malignant compared to benign nodules. 画像の標準化後, 良性結節と比較して8つの画像特性が悪性に対して常に高い値を示した。
訳抜け防止モード: 画像の標準化によって 8つの画像の特徴は 良性結節に比べて 悪性度が高かった
0.71
(a) The window size linearly increases during the fixed growing step and adjusted dynamically in the dynamic selection step. (a)固定成長ステップの間はウィンドウサイズが直線的に増大し、動的選択ステップでは動的に調整される。 0.84
(b) A sample CAM in the dynamic selection step. (b)動的選択ステップにおけるサンプルカム。 0.75
The areas corresponding to the active parts (red areas) are the pixels most difficult to synthesize. 活性部分(赤色領域)に対応する領域は合成するのが最も難しい画素である。 0.76
Fig. 5: Variation of effective pixel range over training epochs. フィギュア。 5: トレーニング期間における有効画素幅の変動。 0.61
a small pulmonary nodule. Three of the resected nodules were histologically confirmed to be malignant (metastatic disease), while the other three were benign. 小さな肺結節です 3例は病理組織学的に悪性(転移性疾患)と診断され,残りの3例は良性であった。 0.63
Radiomic evaluation of these nodules identified eight image features consistently high for malignant compared to benign nodules (Figure 4). これらの結節の放射線学的評価では,良性結節と比較して悪性度が高い8つの画像の特徴が認められた(第4図)。 0.55
In contrast, before image standardization, none of the image features can differentiate malignant and benign nodules. 対照的に、画像標準化の前には、画像の特徴が悪性と良性の結節を区別できない。 0.65
The results suggest that image standardization is critical for CT images acquired with different parameters. 画像の標準化は,異なるパラメータで取得したCT画像に対して重要であることが示唆された。 0.60
Figure 5 illustrate the mechanism and its effect in model training. 図5は、モデルトレーニングにおけるメカニズムとその効果を示しています。 0.68
Figure 5 (a) shows the window size variation during training. 図5(a)は、トレーニング中のウィンドウサイズの変化を示しています。 0.67
In the first eight epochs, the model was trained using the fixed growing approach. 最初の8つの時代において、モデルは固定成長アプローチを用いて訓練された。 0.69
In epoch 7, the training window range achieved its full dynamic range and shifted the training strategy from the fixed growing approach to the dynamic selection approach. epoch 7では、トレーニングウィンドウ範囲が完全なダイナミックレンジを達成し、トレーニング戦略を固定成長アプローチから動的選択アプローチに移行した。 0.80
During the dynamic selection approach the window shifted based on the hot-spots of the selected training data. 動的選択アプローチでは、選択したトレーニングデータのホットスポットに基づいてウィンドウがシフトした。 0.78
In this phase, the window size reduced dynamically and the training process end at epoch 13 when a reasonable window was reached. この段階では、ウィンドウサイズは動的に小さくなり、適切なウィンドウに達するとトレーニングプロセスはエポック13で終了する。 0.76
Figure 5 (b) shows a sample image hot-spot during the dynamic selection training phase. 図5(b)は、動的選択訓練フェーズ中にサンプル画像ホットスポットを示す。 0.87
The active parts (red areas), which is corresponding to the pixels most difficult to synthesize, reduced quickly, indicating that window training is an effective approach for adopting models trained with ImageNet into the medical imaging domain. 最も合成が難しいピクセルに対応する活性部分(赤色領域)は急速に減少し,ImageNetでトレーニングされたモデルを医用画像領域に採用する上で,ウィンドウトレーニングが効果的なアプローチであることが示唆された。 0.79
英語(論文から抽出)日本語訳スコア
RadiomicGAN RadiomicGAN 0.85
9 4 Conclusion CT image radiomic feature discrepancy due to the use of non-standard image acquisition kernels creates a gap in large-scale cross-center radiomic studies. 9 4 結論 非標準画像取得カーネルの使用によるCT画像放射能の特徴差は、大規模なクロスセンター放射線研究においてギャップを生じさせる。 0.73
RadiomicGAN addresses these challenges by efficiently standardizing and normalizing clinically usable synthetic CT images. RadiomicGANは、臨床的に有用な合成CT画像の標準化と標準化によってこれらの課題に対処する。 0.52
The wider dynamic range of CT images has been hindering the adaptation of transfer learning on CT image synthesis. CT画像のより広いダイナミックレンジは、CT画像合成における転写学習の適応を妨げている。 0.87
A novel window training strategy is proposed allowing the model to be gradually exposes to the data points with local intensity details, thus significantly improving model performance. 局所的な強度の詳細でモデルを徐々にデータポイントに露出させ、モデル性能を大幅に向上させる新しいウィンドウトレーニング戦略を提案する。 0.82
In the experiments, we systematically extracted 1,401 radiomic features frequently used in radiomic models. 実験では,放射能モデルで頻繁に使用される1,401個の放射能特徴を体系的に抽出した。 0.54
The results show that RadiomicGAN can significantly increase the reproducibility of radiomic features. その結果,RadiomicGANは放射線学的特徴の再現性を著しく向上させる可能性が示唆された。 0.53
References 1. Abadi, M., Agarwal, A., Barham, P., et al : TensorFlow: Large-scale machine learning on heterogeneous systems (2015), https://www.tensorfl ow.org/, software available from tensorflow.org 参考文献 1. Abadi, M., Agarwal, A., Barham, P., et al : TensorFlow: 異種システム上の大規模機械学習 (2015), https://www.tensorfl ow.org/, software available from tensorflow.org 0.81
2. Berenguer, R., Pastor-Juan, M.d.R., Canales-V´azquez, J., Castro-Garc´ıa, M., Villas, M.V., Legorburo, F.M., Sabater, S.: Radiomics of ct features may be nonreproducible and redundant: Influence of ct acquisition parameters. 2. berenguer, r., pastor-juan, m.d.r., canales-v ́azquez, j., castro-garc ́ıa, m., villas, m.v., legorburo, f.m., sabater, s.: radiomics of ct features may are nonreucucucible and redundant: influence of ct acquisition parameters. 0.77
Radiology p. 172361 (2018) 放射線学P.172361(2018年) 0.50
3. Bushberg, J.T., Boone, J.M. 3. Bushberg, J.T., Boone, J.M. 0.83
: The essential physics of medical imaging. 医用画像に欠かせない物理 0.43
Lippincott Williams & Wilkins (2011) リッピンコット Williams & Wilkins (2011) 0.65
4. Choe, J., Lee, S.M., Do, K.H., Lee, G., Lee, J.G., Lee, S.M., Seo, J.B.: Deep learning–based image conversion of ct reconstruction kernels improves radiomics reproducibility for pulmonary nodules or masses. 4. Choe, J., Lee, S.M., Do, K.H., Lee, G., Lee, Lee, S.M., Seo, J.B.: Deep Learning-based image conversion of ct reconstruction kernels is improves radiomics reproducibility for lung nodules or masses。 0.89
Radiology 292(2), 365–373 (2019) 5. 放射線学292(2)、365-373(2019)5。 0.72
Cohen, M.F., Wallace, J.R.: Radiosity and realistic image synthesis. Cohen, M.F., Wallace, J.R.: ラジオシティとリアルな画像合成。 0.68
Elsevier (2012) 6. エセルヴィエ(2012年)6位。 0.49
Deng, J., Dong, W., Socher, R., Li, L.J., Li, K., Fei-Fei, L.: Imagenet: A largescale hierarchical image database. Deng, J., Dong, W., Socher, R., Li, L.J., Li, K., Fei-Fei, L.: Imagenet: 大規模な階層画像データベース。 0.96
In: 2009 IEEE conference on computer vision and pattern recognition. 2009年ieee conference on computer vision and pattern recognitionに参加。 0.73
pp. 248–255. pp. 248–255. 0.78
Ieee (2009) Ieee (2009) 0.85
7. Foy, J.J., Robinson, K.R., Li, H., Giger, M.L., Al-Hallaq, H., Armato, S.G.: Variation in algorithm implementation across radiomics software. 7. Foy, J.J., Robinson, K.R., Li, H., Giger, M.L., Al-Hallaq, H., Armato, S.G.: ラジオミクスソフトウェアにおけるアルゴリズム実装のバリエーション。 0.81
Journal of Medical Imaging 5(4), 044505 (2018) Journal of Medical Imaging 5(4), 044505 (2018) 0.79
8. Gao, L., Sun, H., Ni, X., Fang, M., Lin, T.: Effects of 16-bit ct imaging scanning conditions for metal implants on radiotherapy dose distribution. 8. Gao, L., Sun, H., Ni, X., Fang, M., Lin, T.: 放射線照射線量分布に及ぼす金属インプラントの16ビットCT撮像条件の影響 0.84
Oncology letters 15(2), 2373–2379 (2018) oncology letters 15(2), 2373-2379 (2018) 0.79
9. Gatys, L., Ecker, A.S., Bethge, M.: Texture synthesis using convolutional neural networks. 9. Gatys, L., Ecker, A.S., Bethge, M.:畳み込みニューラルネットワークを用いたテクスチャ合成 0.86
In: Advances in neural information processing systems. in: 神経情報処理システムの進歩。 0.74
pp. 262–270 (2015) pp. 262–270 (2015) 0.85
10. Gatys, L.A., Ecker, A.S., Bethge, M.: Image style transfer using convolutional neural networks. 10. Gatys, L.A., Ecker, A.S., Bethge, M.: 畳み込みニューラルネットワークを用いた画像スタイル転送 0.84
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 2414–2423 (2016) pp. 2414–2423 (2016) 0.85
11. Gonzalez, R.C., Woods, R.E. 11. Gonzalez, R.C., Woods, R.E. 0.83
: Digital image processing. Upper Saddle River, NJ: デジタル画像処理。 上サドル川(NJ:) 0.53
Prentice Hall (2012) Prentice Hall (2012) 0.85
12. Hore, A., Ziou, D.: Image quality metrics: Psnr vs. ssim. 12. Hore, A., Ziou, D.:画像の品質指標: Psnr vs. ssim。 0.88
In: 2010 20th international 2010年 国際20位。 0.79
conference on pattern recognition. パターン認識に関する会議 0.73
pp. 2366–2369. pp. 2366–2369. 0.78
IEEE (2010) IEEE (2010) 0.85
英語(論文から抽出)日本語訳スコア
10 M. Selim et al 10 M.Selim et al 0.76
13. Hunter, L.A., Krafft, S., Stingo, F., Choi, H., Martel, M.K., Kry, S.F., Court, L.E. 13. Hunter, L.A., Krafft, S., Stingo, F., Choi, H., Martel, M.K., Kry, S.F., Court, L.E. 0.89
: High quality machine-robust image features: Identification in nonsmall cell lung cancer computed tomography images. : 高品質マシンロバスト画像の特徴:非小細胞肺癌ct画像における同定 0.81
Medical physics 40(12) (2013) 医学物理学 40(12) (2013) 0.89
14. Isola, P., Zhu, J.Y., Zhou, T., Efros, A.A.: Image-to-image translation with conditional adversarial networks. 14. Isola, P., Zhu, J.Y., Zhou, T., Efros, A.A.: 条件付き敵ネットワークによる画像から画像への変換。 0.78
In: Computer Vision and Pattern Recognition (CVPR) (2017) In: Computer Vision and Pattern Recognition (CVPR) (2017) 0.85
15. Korhonen, J., You, J.: Peak signal-to-noise ratio revisited: Is simple beautiful? 15. Korhonen, J., You, J.: Peak signal-to-noise ratio revisited: Simple beautiful? 0.90
In: 2012 Fourth International Workshop on Quality of Multimedia Experience. 2012年 - 第4回国際マルチメディア体験ワークショップ開催。 0.63
pp. 37–38. pp. 37–38. 0.78
IEEE (2012) IEEE (2012) 0.85
16. Lawrence, I., Lin, K.: A concordance correlation coefficient to evaluate repro- 16. Lawrence, I., Lin, K.:Reproを評価するための一致相関係数- 0.85
ducibility. Biometrics pp. デュシビリティ。 バイオメトリックス pp. 0.59
255–268 (1989) 255–268 (1989) 0.84
17. Liang, G., Zhang, J., Brooks, M., Howard, J., Chen, J.: radiomic features of lung cancer and their dependency on ct image acquisition parameters. 17. Liang, G., Zhang, J., Brooks, M., Howard, J., Chen, J.: 肺癌の放射線学的特徴とそのct画像取得パラメータへの依存性。 0.87
Medical Physics 44(6), 3024 (2017) 医学物理学44(6)、3024(2017) 0.69
18. Liang, G., Fouladvand, S., Zhang, J., Brooks, M.A., Jacobs, N., Chen, J.: Ganai: Standardizing ct images using generative adversarial network with alternative improvement. 18. Liang, G., Fouladvand, S., Zhang, J., Brooks, M.A., Jacobs, N., Chen, J.: Ganai: 生成的敵ネットワークによるctイメージの標準化。 0.85
In: 2019 IEEE International Conference on Healthcare Informatics (ICHI). 2019年IEEE International Conference on Healthcare Informatics (ICHI)に参加。 0.78
pp. 1–11. IEEE (2019) pp. 1–11. IEEE (2019) 0.80
19. Midya, A., Chakraborty, J., G¨onen, M., Do, R.K., Simpson, A.L. 19. Midya, A., Chakraborty, J., G sonen, M., Do, R.K., Simpson, A.L. 0.89
: Influence of ct acquisition and reconstruction parameters on radiomic feature reproducibility. 放射線学的特徴再現性に及ぼすct取得と再構成パラメータの影響 0.75
Journal of Medical Imaging 5(1), 011020 (2018) Journal of Medical Imaging 5(1), 011020 (2018) 0.79
20. Ronneberger, O., Fischer, P., Brox, T.: U-net: Convolutional networks for biomedical image segmentation. 20. Ronneberger, O., Fischer, P., Brox, T.: U-net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.84
In: Medical Image Computing and Computer-Assisted Intervention. in: 医療画像コンピューティングとコンピュータ支援介入。 0.77
pp. 234–241. pp. 234–241. 0.78
Springer (2015) Springer (複数形 Springers) 0.60
21. Selim, M., Zhang, J., Fei, B., Zhang, G.Q., Chen, J.: Stan-ct: Standardizing ct image using generative adversarial network. 21. Selim, M., Zhang, J., Fei, B., Zhang, G.Q., Chen, J.: Stan-ct: 生成的敵ネットワークを用いたct画像の標準化。 0.85
In: AMIA Annual Symposium Proceedings. In:AMIA Annual Symposium Proceedings(英語) 0.68
vol. 2020. Vol. 2020. 0.77
American Medical Informatics Association (2020) アメリカ医学情報学会(2020年) 0.82
22. Selvaraju, R.R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., Batra, D.: Gradcam: Visual explanations from deep networks via gradient-based localization. 22. Selvaraju, R.R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., Batra, D.: Gradcam: 勾配に基づくローカライゼーションによるディープネットワークからの視覚的説明。 0.86
In: Proceedings of the IEEE international conference on computer vision. In: IEEEのコンピュータビジョンに関する国際会議の開催。 0.82
pp. 618–626 (2017) pp. 618–626 (2017) 0.85
23. Wang, Z., Bovik, A.C., Sheikh, H.R., Simoncelli, E.P. 23. Wang, Z., Bovik, A.C., Sheikh, H.R., Simoncelli, E.P. 0.86
: Image quality assessment: from error visibility to structural similarity. 画像品質評価:誤差可視性から構造的類似性まで。 0.84
IEEE transactions on image processing 13(4), 600–612 (2004) 画像処理におけるIEEEトランザクション 13(4), 600–612 (2004) 0.83
24. Zhang, L., Fried, D.V., Fave, X.J., Hunter, L.A., Yang, J., Court, L.E. 24. Zhang, L., Fried, D.V., Fave, X.J., Hunter, L.A., Yang, J., Court, L.E. 0.87
: Ibex: an open infrastructure software platform to facilitate collaborative work in radiomics. ibex: 放射能における協調作業を容易にするオープンインフラストラクチャソフトウェアプラットフォーム。 0.85
Medical physics 42(3), 1341–1353 (2015) 医学物理学 42(3), 1341-1353(2015) 0.83
25. Zhao, B., Tan, Y., Tsai, W.Y., Qi, J., Xie, C., Lu, L., Schwartz, L.H. 25. Zhao, B., Tan, Y., Tsai, W.Y., Qi, J., Xie, C., Lu, L., Schwartz, L.H. 0.91
: Reproducibility of radiomics for deciphering tumor phenotype with imaging. 腫瘍の表現型を画像化するための放射線治療の再現性 0.60
Scientific reports 6(1), 1–7 (2016) 科学的報告 6(1), 1-7 (2016) 0.88
26. Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., Torralba, A.: Learning deep features for discriminative localization. 26. Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., Torralba, A.: 差別的ローカライゼーションのための深い特徴を学ぶ。 0.87
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 2921–2929 (2016) pp. 2921–2929 (2016) 0.85
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。