論文の概要、ライセンス

# (参考訳) 腫瘍病変を有する脳MRIレジストレーションにおけるシンメトリー制約不規則構造 [全文訳有]

Symmetric-Constraine d Irregular Structure Inpainting for Brain MRI Registration with Tumor Pathology ( http://arxiv.org/abs/2101.06775v1 )

ライセンス: CC BY 4.0
Xiaofeng Liu, Fangxu Xing, Chao Yang, C.-C. Jay Kuo, Georges ElFakhri, Jonghye Woo(参考訳) 脳腫瘍患者と健常者の磁気共鳴画像の変形性登録は、位置アライメントによって腫瘍の形状を特定する重要なツールであり、病理学的解析を容易にする。 腫瘍領域は通常の脳組織と一致しないため、患者の脳を正常な組織に変形的に登録することは困難である。 多くの患者画像は、不規則に分布した病変と関連しており、正常な組織構造のさらなる歪みと登録の類似性尺度の複雑化をもたらす。 本研究は,腫瘍領域の合成組織強度を生成するために,多段階のコンテキスト認識画像塗布フレームワークに従う。 粗い画像と画像の変換を適用して、欠落部分の粗い推測を行う。 次に,パッチ毎の機能間の意味的関連性をモデル化することにより,細部を洗練するために,機能レベルのパッチマッチリファインメントモジュールを適用する。 さらに、より優れた構造理解を実現するために、脳内の解剖学的対称性を反映する対称性制約を提案する。 塗布された患者画像と正常脳の間で変形可能な登録が適用され、最終的なアライメントのために元の患者データを変形するために結果の変形場が最終的に使用される。 この方法は、Multimodal Brain tumor Segmentation (BraTS) 2018 Challenge databaseに適用され、既存の3つの塗装法と比較された。 提案手法は,ピーク信号対雑音比,構造類似度指数,開始スコア,L1誤差を低減し,患者と正常な脳画像の登録に成功した。

Deformable registration of magnetic resonance images between patients with brain tumors and healthy subjects has been an important tool to specify tumor geometry through location alignment and facilitate pathological analysis. Since tumor region does not match with any ordinary brain tissue, it has been difficult to deformably register a patients brain to a normal one. Many patient images are associated with irregularly distributed lesions, resulting in further distortion of normal tissue structures and complicating registration's similarity measure. In this work, we follow a multi-step context-aware image inpainting framework to generate synthetic tissue intensities in the tumor region. The coarse image-to-image translation is applied to make a rough inference of the missing parts. Then, a feature-level patch-match refinement module is applied to refine the details by modeling the semantic relevance between patch-wise features. A symmetry constraint reflecting a large degree of anatomical symmetry in the brain is further proposed to achieve better structure understanding. Deformable registration is applied between inpainted patient images and normal brains, and the resulting deformation field is eventually used to deform original patient data for the final alignment. The method was applied to the Multimodal Brain Tumor Segmentation (BraTS) 2018 challenge database and compared against three existing inpainting methods. The proposed method yielded results with increased peak signal-to-noise ratio, structural similarity index, inception score, and reduced L1 error, leading to successful patient-to-normal brain image registration.
公開日: Sun, 17 Jan 2021 20:38:50 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 1 2 0 2 n a J 0.85
7 1 ] V 7 1 ] V 0.85
I . s s e e [ 私は。 s s e [ 0.71
1 v 5 7 7 6 0 1 v 5 7 7 6 0 0.85
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Symmetric-Constraine d Irregular Structure Inpainting for Brain MRI Registration with シンメトリー制約不規則構造による脳MRIレジストレーション 0.81
Tumor Pathology Xiaofeng Liu1†, Fangxu Xing1†, Chao Yang2, C.-C. Jay Kuo3, Georges El 腫瘍病理 Xiaofeng Liu1', Fangxu Xing1', Chao Yang2, C.-C. Jay Kuo3, Georges El 0.70
Fakhri1, and Jonghye Woo1 Fakhri1 と Jonghye Woo1 0.97
1 Gordon Center for Medical Imaging, Department of Radiology, Massachusetts マサチューセッツ大学放射線学科 ゴードン医科画像センター1号 0.52
General Hospital and Harvard Medical School, Boston, MA, 02114, USA 一般病院とハーバード大学医学部, ボストン, MA, 02114, USA 0.80
2 Facebook Artificial Intelligence, Boston, MA, 02142 Facebookの人工知能2つ、ボストン、MA、02142 0.73
3 Ming Hsieh Department of Electrical and Computer Engineering, University of 3 ming hsieh department of electrical and computer engineering, university of university of ming hsieh 0.78
Southern California, Los Angeles, CA, 90007, USA 南カリフォルニア,ロサンゼルス,CA,90007,米国 0.71
† Contribute Equally. Abstract. は等しく貢献する。 抽象。 0.55
Deformable registration of magnetic resonance images between patients with brain tumors and healthy subjects has been an important tool to specify tumor geometry through location alignment and facilitate pathological analysis. 脳腫瘍患者と健常者の磁気共鳴画像の変形性登録は、位置アライメントによって腫瘍の形状を特定する重要なツールであり、病理学的解析を容易にする。 0.73
Since tumor region does not match with any ordinary brain tissue, it has been difficult to deformably register a patient’s brain to a normal one. 腫瘍領域は通常の脳組織と一致しないため、患者の脳を正常なものに変形的に登録することは困難である。 0.80
Many patient images are associated with irregularly distributed lesions, resulting in further distortion of normal tissue structures and complicating registration’s similarity measure. 多くの患者画像は、不規則に分布した病変と関連しており、正常な組織構造のさらなる歪みと登録の類似性尺度の複雑化をもたらす。 0.71
In this work, we follow a multi-step context-aware image inpainting framework to generate synthetic tissue intensities in the tumor region. 本研究は,腫瘍領域の合成組織強度を生成するために,多段階のコンテキスト認識画像塗布フレームワークに従う。 0.78
The coarse image-to-image translation is applied to make a rough inference of the missing parts. 粗い画像と画像の変換を適用して、欠落部分の粗い推測を行う。 0.64
Then, a feature-level patch-match refinement module is applied to refine the details by modeling the semantic relevance between patch-wise features. 次に,パッチ毎の機能間の意味的関連性をモデル化することにより,細部を洗練するために,機能レベルのパッチマッチリファインメントモジュールを適用する。 0.60
A symmetry constraint reflecting a large degree of anatomical symmetry in the brain is further proposed to achieve better structure understanding. さらに、より優れた構造理解を実現するために、脳内の解剖学的対称性を反映する対称性制約を提案する。 0.74
Deformable registration is applied between inpainted patient images and normal brains, and the resulting deformation field is eventually used to deform original patient data for the final alignment. 塗布された患者画像と正常脳の間で変形可能な登録が適用され、最終的なアライメントのために元の患者データを変形するために結果の変形場が最終的に使用される。 0.62
The method was applied to the Multimodal Brain Tumor Segmentation (BraTS) 2018 challenge database and compared against three existing inpainting methods. この方法は、Multimodal Brain tumor Segmentation (BraTS) 2018 Challenge databaseに適用され、既存の3つの塗装法と比較された。 0.70
The proposed method yielded results with increased peak signal-to-noise ratio, structural similarity index, inception score, and reduced L1 error, leading to successful patientto-normal brain image registration. 提案手法は,ピーク信号対雑音比,構造類似度指数,開始スコア,L1誤差を低減し,患者から正常な脳画像登録に成功した。 0.81
Keywords: Brain Tumor · Registration · Image Inpainting · Irregular Structure · Symmetry · Contextual Learning · Deep Learning キーワード:脳腫瘍・登録・画像印加・不規則構造・対称性・文脈学習・深層学習 0.72
1 Introduction In brain imaging studies, magnetic resonance imaging (MRI) as a noninvasive tool is widely used to provide information on the brain’s clinical structure, tissue anatomy, and functional behaviors [28,4]. 1 はじめに 脳画像研究において、非侵襲的ツールとしてのMRIは、脳の臨床的構造、組織解剖、機能的行動に関する情報を提供するために広く用いられている[28,4]。 0.74
When multiple datasets from a population of interest are involved, to establish a comparable framework in which 関心の集団からの複数のデータセットが関与する場合、同等のフレームワークを確立する。 0.72
英語(論文から抽出)日本語訳スコア
2 X. Liu et al 2 X. Liu et al 0.92
similarity and variability in the tissue structure can be evaluated, deformable image registration between subjects are often used to achieve inter-subject alignment [37]. 組織構造における類似性と変動性を評価することができ、被写体間の変形可能な画像登録は、サブジェクト間アライメントを達成するためにしばしば用いられる [37]。 0.65
Brain tumor is a common type of disorder diagnosed using medical imaging [35]. 脳腫瘍は画像診断で診断される一般的な疾患である[35]。 0.79
However, tumors in MRI tend to cause difficulties with deformable registration: 1) Tumor regions have no matching structure in a normal brain, nullifying the basic mathematical assumptions made for regular image registration methods and subsiding their performance; 2) Expansion of tumor regions often alters its peripheral structure, causing the whole image to become asymmetric with distorted hemispheres or ventricles; and 3) The locations of tumors are sometimes irregularly scattered around the whole brain, causing inconsistencies when matching multiple tumor spots [10]. However, tumors in MRI tend to cause difficulties with deformable registration: 1) Tumor regions have no matching structure in a normal brain, nullifying the basic mathematical assumptions made for regular image registration methods and subsiding their performance; 2) Expansion of tumor regions often alters its peripheral structure, causing the whole image to become asymmetric with distorted hemispheres or ventricles; and 3) The locations of tumors are sometimes irregularly scattered around the whole brain, causing inconsistencies when matching multiple tumor spots [10]. 0.86
There has been a great deal of work that tackles patient-to-normal tissue registration in a traditional way [38,19]. 従来の[38,19]方法で患者から正常組織への登録に取り組む多くの仕事があります。 0.84
Especially, for small tumor cases, Dawant et al [9] introduced a tumor seed and Cuadra et al [8] extended it with a tumor growth model to drive the registration process. 特に小腫瘍の場合, Dawant et al [9] は腫瘍シードを導入し, Cuadra et al [8] は腫瘍成長モデルで拡張し, 登録プロセスを推進した。 0.83
For larger tumors, Mohamed et al [27] used a biomechanical model of tumor-induced deformation to generate a similar tumor image from the normal image. 大きな腫瘍に対しては, Mohamed et al [27] は腫瘍誘発変形の生体力学的モデルを用いて, 正常画像から同様の腫瘍像を生成する。 0.80
Since then many methods have been focusing on tumor growth simulations to facilitate symmetry computation [14,40]. それ以来, 腫瘍進展シミュレーションに着目し, 対称性の計算を容易にする方法が数多くある [14,40]。 0.75
More traditional methods are summarized in [37]. より伝統的な手法は[37]で要約される。 0.72
In this work, we propose a new image inpainting method—i.e., a restorative method that treats tumor as defective holes in an ideal image and reconstructs them with synthetic normal tissue. そこで本研究では,腫瘍を理想的な画像内の欠陥穴として扱い,合成正常組織で再構築する新しい画像インパインティング法を提案する。 0.83
The synthesized brain can be processed with regular deformable registration and the tumor region will eventually be re-applied after being mapped to the new space. 合成された脳は定期的に変形可能な登録で処理でき、腫瘍領域は新しい空間にマッピングされた後に最終的に再適用される。 0.73
Traditional inpainting methods are either diffusion-based or patch-based with low-level features [3,2,5,7,12,32]. 従来の塗装法は拡散法かパッチ法で低レベルの特徴[3,2,5,7,12,32]を持つ。 0.49
These prior approaches usually perform poorly in generating semantically meaningful contents and filling in large missing regions [21]. これらの先行したアプローチは、通常、意味的に意味のあるコンテンツを生成し、大きな欠落した領域を埋める[21]。 0.53
Recently developed learning-based inpainting methods usually use generative adversarial networks (GANs) to learn image semantics and infer contents in the missing region [15,36,31,39]. 近年,画像のセマンティクスを学習するためにGAN(Generative Adversarial Network)を用いる学習手法が開発されている [15,36,31,39]。 0.70
In the brain tumor application, difficulties 2) and 3) need to be addressed specifically. 脳腫瘍の応用においては、困難度2および3を具体的に扱う必要がある。 0.75
Starting from the initial context encoder deep learning method [31], Liu et al [20] updated the mask and convolution weights in each layer to handle irregular holes. 初期コンテキストエンコーダ深層学習法[31]から、Liuら[20]は、各層におけるマスクと畳み込み重みを更新し、不規則な穴を処理した。
訳抜け防止モード: 初期文脈エンコーダ深層学習法[31]から始める Liu et al [20 ] は各層におけるマスクと畳み込み重みを更新した 不規則な穴に対処するためです
0.86
However, it is challenging for these 1-step inpainting solutions to address the large holes with complicated texture. しかし、この1段階の塗り込み解が複雑なテクスチャで大きな穴に対処することは困難である。 0.72
Song et al [36] proposed a multi-step framework to refine the results with patch-swap, but its coarse inpainting module does not fit for multiple irregular holes. Song et al [36] はパッチスワップで結果を改善するためのマルチステップフレームワークを提案したが、粗い塗装モジュールは複数の不規則な穴に適合しなかった。 0.71
Moreover, the above methods are designed for general image cases and do not involve priors such as brain anatomy and physiology. また、上記の手法は一般的な画像症例向けに設計されており、脳解剖学や生理学などの先行研究は含まない。 0.66
In this work, we propose a novel multi-step inpainting method capable of making fine-grained prediction within irregular holes with feature patch-wise conditional refinement. そこで本研究では,不規則な穴内での細粒度予測を特徴的パッチワイド条件付き改良により実現する多段塗工法を提案する。 0.64
It also incorporates a symmetry constraint to explicitly exploit the quasi-symmetry property of the human brain for better structure understanding. また、人間の脳の準対称性特性をよりよく理解するために、対称性の制約も組み込まれている。 0.71
Deformable registration is applied between inpainted patient images and normal controls whose deformation field is then used to deform original patient data into the target space, achieving patient-to-normal registration. 塗装された患者画像と変形場を利用した正常な制御との間で変形可能な登録を行い、元の患者データを対象空間に変形させ、患者対正常登録を実現する。
訳抜け防止モード: 塗布された患者画像と変形磁場を用いた正常制御との間に変形性登録が適用される 患者データをターゲット空間にデフォームし、通常の登録を行う。
0.79
英語(論文から抽出)日本語訳スコア
Symmetric Irregular Inpainting for Brain Tumor MRI Registration 脳腫瘍MRIにおけるシンメトリー不整脈 0.66
3 Fig. 1. 3 フィギュア。 1. 0.71
Overview of the proposed network architecture. 提案されているネットワークアーキテクチャの概要。 0.69
GPI is used for coarse inference and VGG is used for extracting the feature map. GPIは粗い推論に使われ、VGGは特徴マップの抽出に使用される。 0.75
The patch-swap layer propagates high frequency information from the boundary to the hole. パッチスワップ層は、境界から穴への高周波情報を伝搬する。 0.81
F2I translates to a complete, high-resolution image further constrained with symmetric loss. F2Iは、対称損失でさらに制約された完全な高解像度画像に変換する。 0.59
2 Methods Given a brain MRI slice I0 with tumor, the goal is to replace the pathological regions with normal brain appearances. 2つの方法 脳MRIスライスI0を腫瘍にすると、疾患領域を正常な脳の外観に置き換えることが目的である。 0.70
The incomplete input I0 is composed of R and R, representing the removed pathological region (the hole) and the remaining normal region (boundary or context), respectively. 不完全入力I0は、それぞれ除去された病理領域(穴)と残りの正常領域(境界領域またはコンテキスト)を表すRとRとから構成される。 0.81
Mathematically, the task is to generate a new, complete image I with plausible contents in R. 数学的には、r に可能なコンテンツを持つ新しい完全画像 i を生成するのが課題である。
訳抜け防止モード: 数学的に言えば、その仕事は Rに有望な内容を持つ新しい完全画像Iを生成する。
0.73
Following the basic idea of contextual-based image inpainting [36], our framework consists of three sequential modules: global perception inference (GPI), context-aware patch swapping (CPS), and feature-to-image translator (F2I). 文脈に基づくイメージインパインティング [36] の基本的な考え方に従い,このフレームワークは,グローバル知覚推論(gpi),コンテキスト認識パッチスワッピング(cps),フィーチャーツーイメージトランスレータ(f2i)という3つの逐次モジュールで構成されている。 0.77
The intuition behind the multi-step operation is that direct learning of the distribution of high dimensional image data is challenging. マルチステップ操作の背後にある直感は、高次元画像データの分布の直接学習が難しいことである。 0.80
Thus using a coarse generation followed by a refinement scheme can increase the inpainting performance [36]. これにより、粗生成後の精細化スキームを用いることで、塗装性能が向上する [36]。 0.74
Our network architecture is shown in Fig 1. ネットワークアーキテクチャは、図1に示します。 0.77
2.1 Global Perception Inference The input to the GPI network I0 is a 1×240×240 image with irregular holes. 2.1 グローバル知覚推論 GPIネットワークI0への入力は、不規則な穴を持つ1×240×240画像である。 0.62
Its output is a coarse prediction I1. その出力は粗い予測I1である。 0.81
Considering the potential irregular distribution of tumor locations, the rectangular hole generation module used in [36] is not applicable. 腫瘍部位の潜在的不規則分布を考慮すると, [36] で使用される矩形穴生成モジュールは適用できない。 0.85
Therefore, we first adopt the GPI network structure from the image-to-image translation network proposed in [17], which consists of 4×4 convolutions with skip connections in order to concatenate different features from each encoder layer and the corresponding decoder layer. そこで,我々はまず,各エンコーダ層と対応するデコーダ層との異なる特徴を結合するために,スキップ接続を持つ4×4の畳み込みからなる[17]で提案した画像間翻訳ネットワークからGPIネットワーク構造を採用する。 0.84
We slightly modify the size of each layer since only single channel T1-weighted MRI is used in this task. このタスクでは,単一チャネルT1強調MRIのみを使用するため,各層のサイズをわずかに修正する。 0.80
The GPI module is explicitly trained using the L1 reconstruction loss, which is important for stabilizing the adversarial training [23]. GPIモジュールはL1再構成損失を用いて明示的に訓練されるが、これは敵の訓練[23]を安定化させるのに重要である。
訳抜け防止モード: GPIモジュールは明示的にトレーニングされる 対人訓練[23]の安定化に重要なL1再建損失を使用すること。
0.79
It can be formulated as L1(I1, Igt) = (cid:107) I1 − Igt (cid:107)1, 定式化できるのです L1(I1, Igt) = (cid:107) I1 − Igt (cid:107)1, 0.68
(1) where I1 and Igt are the rough inpainting result of GPI and the ground truth, respectively. (1) I1 と Igt はそれぞれ GPI と基底真理の粗悪な影響の結果である。 0.77
英語(論文から抽出)日本語訳スコア
4 X. Liu et al 4 X. Liu et al 0.92
Fig. 2. Illustration of the patch-swap operation (left) and symmetry constraint (right). フィギュア。 2. パッチスワップ操作(左)と対称性制約(右)の例。 0.66
Patch-swap is implemented in the FCN-based VGG’s feature space to search for the most similar boundary 1 × 1 feature patch with minimum d(p, q). パッチスワップはFCNベースのVGGの機能空間で実装され、最小d(p, q)で最もよく似た境界 1 × 1 の機能パッチを探索する。 0.82
The second objective is the adversarial loss based on GANs [24], which can 第2の目的はgans[24]に基づく敵対的損失であり 0.67
be defined as: be defined as ~ 0.64
D1 Ladv = max D1 Ladv = max 0.82
E[log(D1(I0, Igt)) + log(1 − D1(I0, I1))]. e[log(d1(i0, igt)) + log(1 − d1(i0, i1))] である。 0.90
(2) Here, a pair of images are input to the discriminator D1 as is the setting of adversarial training. (2) ここでは、対向訓練の設定として、判別器D1に一対の画像を入力する。 0.76
The incomplete image I0 and the original image Igt are the real pair, and the incomplete image I0 and the prediction I1 are the fake pair. 不完全画像I0と原画像Igtとを実対とし、不完全画像I0と予測I1とを偽対とする。 0.74
During training, the overall loss function is given by LGP I = λ1L1 + λ2Ladv, 訓練中、全体的な損失関数はLGP I = λ1L1 + λ2Ladv で与えられる。 0.68
where λ1 and λ1 are the balancing hyperparameters for the two losses. λ1 と λ1 は2つの損失に対する バランスの取れたハイパーパラメータです 0.74
2.2 Context-aware Patch Swapping 2.2 コンテキストアウェアパッチスワップ 0.61
We use I1 as input to the CPS network which is implemented in two phases. 我々は2つのフェーズで実装されたCPSネットワークへの入力としてI1を使用する。 0.64
First, I1 is encoded as F1 by a fully convolutional network (FCN) using the pre-trained VGG network as in [36]. まず、事前訓練されたVGGネットワークを[36]に用いた完全畳み込みネットワーク(FCN)により、I1をF1として符号化する。 0.64
Then the patch-swap operation is applied to propagate the texture from R to R while maintaining the high frequency information in R [22]. そして、パッチスワップ操作を適用してR[22]の高周波情報を保持しながら、RからRへのテクスチャ伝播を行う。 0.80
r and ¯r denote the regions in F1 corresponding to R and ¯R in I1, respectively. r と sr はそれぞれ I1 の R と sR に対応する F1 の領域を表す。 0.81
For each 1×1 neural patch4 pi of F1 overlapping with r, the closest-matching neural patch in ¯r, indexed by qi, is found using the following cross-correlation metric r と重なり合う f1 の 1×1 の神経パッチ4 pi に対して、qi で索引づけられた sr の最も近い神経パッチは、以下の相互相関メトリックを用いて見出される。 0.64
d(p, q) = < p, q > (cid:107) p (cid:107) · (cid:107) q (cid:107) , d(p, q) = <p, q > (cid:107) p (cid:107) · (cid:107) q (cid:107) , 0.85
(3) where pi is replaced by qi. (3) piはQiに置き換えられます 0.77
We first swap each patch in r with its most similar patch in ¯r, followed by averaging overlapping patches. 最初は各パッチをrに置き換え、最もよく似たパッチを'r'に置き換え、続いてオーバーラップするパッチを平均化する。 0.61
The output is then a new feature map F (cid:48) 出力は、新しいフィーチャーマップF(cid:48)となる。 0.83
1. This process is illustrated in Fig 2 left. 1. この過程は図2で示されています。 0.78
2.3 Feature-to-image Translator 2.3 画像変換機能 0.57
Next, we use the F2I network to learn the mapping from the swapped feature map to a complete and vivid image, which has a U-Net style generator. 次に、F2Iネットワークを用いて、置換された特徴マップから、U-Netスタイルのジェネレータを持つ完全かつ鮮明なイメージへのマッピングを学習する。 0.73
The 4 In the inpainting community, the 1×1 patch (in a feature map) is a widely used concept. 図4 着色コミュニティでは、1×1パッチ(フィーチャーマップ)が広く使われている概念です。 0.76
The output of F1 ∈ R256×60×60, while the original image is 240×240×1; therefore a 1×1 area in a feature map is not considered as a pixel. F1 ∈ R256×60×60 の出力は 240×240×1 であり、特徴写像の 1×1 領域はピクセルとはみなされない。 0.83
英語(論文から抽出)日本語訳スコア
Symmetric Irregular Inpainting for Brain Tumor MRI Registration 脳腫瘍MRIにおけるシンメトリー不整脈 0.66
5 input to the U-Net is a feature map extracted by the FCN-based VGG network. 5 U-Netへの入力はFCNベースのVGGネットワークによって抽出された特徴マップである。 0.74
The generator consists of seven convolution layers and eight deconvolution layers, where the first six corresponding deconvolutional and convolutional layers are connected through skip connections. ジェネレータは7つの畳み込み層と8つの畳み込み層で構成され、最初の6つの畳み込み層と畳み込み層はスキップ接続を介して接続される。 0.63
The output is a complete 1×240×240 image. 出力は1×240×240画像である。 0.75
In addition, the F2I network comprises a patch-GAN based discriminator D2 for adversarial training. さらに、F2Iネットワークは、対向訓練用のパッチGANベースの識別器D2を含む。 0.62
However, the input to D2 is a pair of an image and its feature map in contrast to the GPI network. しかし、D2への入力は、GPIネットワークとは対照的に、画像とその特徴マップの対である。 0.74
In practice, we follow [36] that uses the ground truth as training input. 実際には、基礎的真理をトレーニング入力として使用する[36]に従う。 0.74
Specifically, the feature map Fgt = vgg(Igt) is the input to the patch-swap layer followed by using the swapped feature F (cid:48) gt = patch swap(Fgt) to train the F2I model. 具体的には、特徴写像 Fgt = vgg(Igt) はパッチスワップ層への入力であり、次に交換された特徴 F (cid:48) gt = patch swap(Fgt) を使ってF2Iモデルを訓練する。 0.78
F (cid:48) 1 = patch swap(F1) is still used as input for inference, since Igt is not accessible at test time. f (cid:48) 1 = patch swap(f1) はまだテスト時にigtにアクセスできないため、推論の入力として使われている。 0.74
Of note, using different types of input for both training and testing is not a common practice in training a machine learning model. もちろん、トレーニングとテストの両方に異なるタイプの入力を使用することは、機械学習モデルのトレーニングにおいて一般的なプラクティスではありません。 0.67
However, its effectiveness in inpainting has been demonstrated in [36]. しかし、その塗布効果は[36]で実証されている。 0.73
Similar to [42], the robustness can be further improved by sampling from both the ground truth and the GPI prediction. 42]と同様、基底真理とGPI予測の両方からサンプリングすることで、ロバスト性をさらに向上させることができる。 0.66
The first objective is the perceptual loss defined on the entire image between 第一の目的は イメージ全体を通して定義される知覚的損失です 0.79
the final output I and the ground truth Igt: 最終的な出力 I と基礎的な真実 Igt: 0.83
Lperceptual(I, Igt) =(cid:107) vgg(I) − vgg(Igt) (cid:107)2 . Lperceptual(I, Igt) = (cid:107) vgg(I) − vgg(Igt) (cid:107)2 である。 0.87
(4) This perceptual loss has been widely used in many tasks [13,18,11,6] as it corresponds better with human perception of similarity [41]. (4) この知覚喪失は多くのタスク [13,18,11,6] で広く使われており、人間の類似性の知覚とよりよく一致している [41]。 0.75
The adversarial loss is defined by the discriminator D2, which can be ex- 逆損失は判別器D2によって定義され、これは元になる。 0.61
pressed as: Ladv = max 押すと: Ladv = max 0.71
gt, Igt)) + log(1 − D2(F (cid:48) where the real and fake pairs for adversarial training are (F (cid:48) respectively. gt, Igt)) + log(1 − D2(F (cid:48) ここで、実対と偽対はそれぞれ (cid:48) である。 0.73
E[log(D2(F (cid:48) E[log(D2(F)(cid:48) 0.86
D2 gt, I))], gt, Igt) and (F (cid:48) D2 gt, I)], gt, Igt), (F (cid:48) 0.76
gt, I), (5) gt, I)。 (5) 0.79
2.4 Quasi-symmetry Constraint While the brain is not exactly symmetrical w.r.t. 2.4準対称性制約 脳は正確に対称的ではない。 0.64
the mid-sagittal plane, there is a large degree of symmetry between left and right hemispheres in the brain which we call the “quasi-symmetry property” [33,29]. 脳の左半球と右半球の間には大きな対称性があり、「準対称性の性質」 [33,29] と呼ばれる。 0.76
As such, using this anatomical symmetry constraint on the generated images can mitigate the ill-posed inpainting task and further improve performance especially for large hole cases. そのため、生成した画像に対するこの解剖学的対称性の制約を用いることで、不適切な塗布作業が軽減され、特に大きなホールの場合の性能が向上する。
訳抜け防止モード: このようにして生成された画像に解剖学的対称性の制約を適用すると 病気を軽減し、特に大きな穴のケースでさらにパフォーマンスを向上させることができる。
0.66
The symmetry loss is given by Lsym(I) = E (cid:107) IR − I ˆR (cid:107)2, 対称性の損失は Lsym(I) = E (cid:107) IR − I (cid:107)2, 0.79
(6) where R and ˆR are the hole and its mirrored region as shown in Fig 2 right. (6) 図2の右に示すように、R と R は穴とその鏡面領域である。 0.86
Therefore, we can easily transfer the appearance of the normal brain tissue to the corresponding tumor part by teaching the network to recover the lost information from the mirrored side. したがって、ネットワークにミラー側から失われた情報を回収するよう指示することで、正常な脳組織の外観を対応する腫瘍部へ容易に転送することができる。 0.77
Note that the brains used in our experiments are coarsely aligned on their mid-sagittal planes. 実験で使われた脳は、その中矢状面に粗く整列している。 0.63
More importantly, our technique さらに重要なことに 我々の技術は 0.57
英語(論文から抽出)日本語訳スコア
6 X. Liu et al 6 X. Liu et al 0.92
Fig. 3. An ablation study of our symmetry constraint and the comparison with the other inpainting methods. フィギュア。 3. 対称性制約のアブレーション研究と他の塗装法との比較 0.64
is robust against any potential misalignments, since the resolution of the feature space is 60×60, while the input is 240×240, with the down-sampling of the maxpooling operation, the deep neural networks, in general, are robust against small rotation [25]. 機能空間の解像度は60×60であり、入力は240×240であり、最大値演算のダウンサンプリングにより、ディープニューラルネットワークは一般に小さな回転に対して堅牢である[25]。 0.59
Besides, the deep neural network can tackle this simple rotation. さらに、ディープニューラルネットワークはこの単純な回転に対処できる。 0.75
With the symmetry constraint, the overall loss for the F2I translation network is defined as: 対称性の制約により、F2I翻訳ネットワークの全体的な損失は次のように定義される。 0.68
LF 2I = λ3Lperceptual + λ4Ladv + λ5Lsym, LF 2I = λ3Lperceptual + λ4Ladv + λ5Lsym, 0.69
(7) where λ3, λ4, and λ5 are the balancing hyperparameters for different losses. (7) λ3 と λ4 と λ5 は 異なる損失に対する バランスの取れたハイパーパラメータです 0.84
Considering the brain is not strictly symmetrical w.r.t. 脳は厳密に対称ではない。 0.71
the mid-sagittal plane, we usually choose a relatively small weight λ5 for Lsym. 矢状中平面では、通常、lsym に対して比較的小さい重量 λ5 を選択する。 0.63
3 Experiments and Results The proposed method was validated both qualitatively and quantitatively on the T1 modality of Brain Tumor Segmentation (BraTS) 2018 database5. 3 実験と結果 提案法は,脳腫瘍分離(BraTS)2018データベース5のT1モダリティを質的かつ定量的に検証した。 0.80
From a total of 210 patients each with ˜150 slices, we randomly selected 16 patients for testing and the remaining subjects were used for training in a subject independent manner. 合計150スライスの患者210名から無作為に16名の患者をランダムに選抜し,残りの被験者を個別に訓練した。 0.66
Training was performed on four NVIDIA TITAN Xp GPUs with the PyTorch deep learning toolbox [30], which took about 5 hours. PyTorchのディープラーニングツールボックス[30]で4つのNVIDIA TITAN Xp GPU上でトレーニングが行われた。 0.64
The normal slices without tumors in the training set were selected to train our network. トレーニングセット内の腫瘍のない正常なスライスを選択し,ネットワークを訓練した。 0.70
Since tumors in BraTS data can occur in different spatial locations, our network is capable of familiarizing with the normal appearance in different slices. BraTSデータ中の腫瘍は異なる空間で発生するため、ネットワークは異なるスライスでの正常な出現に慣れることができる。 0.72
We randomly chose the irregular tumor segmentation labels in our training set as training masks. トレーニング用マスクとして,不規則な腫瘍セグメンテーションラベルをランダムに選択した。 0.72
5 https://www.med.upen n.edu/sbia/brats2018 /data.html 5 https://www.med.upen n.edu/sbia/brats2018 /data.html 0.27
英語(論文から抽出)日本語訳スコア
Symmetric Irregular Inpainting for Brain Tumor MRI Registration 脳腫瘍MRIにおけるシンメトリー不整脈 0.66
7 Fig. 4. 7 フィギュア。 4. 0.71
Inpainting results comparing to the ground truth. 基礎的真理に比較して結果を描き出す。 0.60
Table 1. Numerical comparison of four methods using BraTS 2018 testing set. 表1。 BraTS 2018テストセットを用いた4つの手法の数値比較 0.77
Note that smaller mean L1 error and larger SSIM mean error indicate higher similarity. より小さい平均L1誤差と大きいSSIM平均誤差はより類似性が高いことを示すことに注意。 0.66
PSNR ↑ Inception Score ↑ 29.55 30.34 33.57 34.26 34.52 インセプションスコア29.55 30.34 33.57 34.26 34.52 0.51
SSIM ↑ 0.9460 0.9506 0.9512 0.9667 0.9682 SSIM ↑ 0.9460 0.9506 0.9512 0.9667 0.9682 0.52
445.8 432.6 373.2 292.5 254.8 445.8 432.6 373.2 292.5 254.8 0.44
9.13 9.68 9.77 10.26 10.58 9.13 9.68 9.77 10.26 10.58 0.44
mean L1 error ↓ 平均 L1 エラー。 0.67
Proposed+symmetry Proposed+symmetric 0.55
Methods Patch-match [3] 方法 パッチマッチ[3] 0.78
GLC [16] Partial Conv [20] GLC[16] 部分Conv[20] 0.79
Proposed The process of computing cross-correlation for all the neural patch pairs between the hole and the remaining region (e g , boundary) is computationally prohibitive. 提案 ホールと残りの領域(例えば境界)の間の全ての神経パッチ対の相互相関を計算するプロセスは計算的に禁止される。 0.74
To alleviate this, the strategy in [6,36] was used to speed up computation via paralleled convolution. これを軽減するために [6,36] の戦略は並列畳み込みによる計算の高速化に使われた。 0.77
In practice, processing one feature map only took about 0.1 seconds. 実際には、1つのフィーチャーマップを処理するのに0.1秒しかかからなかった。 0.49
In order to match the absolute value of each loss, we set different weights for each part. 各損失の絶対値に合致するために、各部分ごとに異なる重みを設定します。 0.77
For the training of GPI, we set weight λ1 = 10 and λ2 = 1. GPIのトレーニングでは、ウェイト λ1 = 10 と λ2 = 1 をセットする。 0.87
Adam optimizer was used for training. アダム・オプティマイザは訓練に使用された。 0.33
The learning rate was set at lrGP I = 1e−3 and lrD1 = 1e−4 and the momentum was set at 0.5. 学習速度はlrGP I = 1e−3,lrD1 = 1e−4で,運動量は0.5。 0.73
When training the F2I network, we set λ3 = 10, λ4 = 3 and λ5 = 1. f2iネットワークを訓練するとき、λ3 = 10 λ4 = 3 と λ5 = 1 と設定する。 0.83
For the learning rate, we set lrF 2I = 2e−4 and lrD2 = 2e−4. 学習率について、lrF 2I = 2e−4 と lrD2 = 2e−4 を定める。 0.65
Same as the GPI module, the momentum was set as 0.5. GPIモジュールと同様、運動量は0.5と設定された。 0.78
The inpainting results of various cases are shown in Figs. 各種症例の塗布結果がFigsで示されている。 0.57
3, 4, and 5. The proposed network can deal with incomplete data from different unseen patients, different slice positions, and arbitrary shape and number of holes. 3、4、5。 提案するネットワークは,未発見の患者による不完全なデータ,スライス位置,任意の形状と穴の数を扱うことができる。 0.67
Comparisons with the other inpainting methods are shown in Fig 3. 他の塗装法との比較はfig 3で示される。 0.73
Our proposed method using context-aware inpainting [36] shows superior performance over the other methods as visually assessed. 提案手法は, 視覚的に評価した他の手法よりも優れた性能を示す [36] 。 0.80
In addition, an ablation study to evaluate the contribution of the symmetry constraint is illustrated in Fig 3. また、この対称性制約の寄与を評価するためのアブレーション研究を図3に示す。 0.74
Of note, the inpainting quality was further improved using the symmetry constraint plus marginal training cost without additional testing cost. なお, 塗布品質は, 追加試験コストを伴わずに, 対称性制約と限界トレーニングコストによりさらに改善された。 0.79
This is partly attributed to the use of the context and quasi-symmetry property of the brain. これは部分的には脳の文脈と準対称性の使用によるものである。 0.74
英語(論文から抽出)日本語訳スコア
8 X. Liu et al 8 X. Liu et al 0.92
Fig. 5. Deformable registration of two brain tumor subjects to a brain atlas: direct registration vs. inpainted registration. フィギュア。 5. 2つの脳腫瘍患者の脳アトラスへの変形可能な登録:直接登録と塗布された登録 0.67
Tumors are marked in red boxes. 腫瘍は赤い箱でマークされています。 0.49
Table 2. Mutual information between registered brain volumes and the brain atlas on ten test subjects using direct patient registration and inpainted volume registration. 表2。 患者直接登録と印字ボリューム登録を用いた被験者10名における登録脳容積と脳房の相互情報 0.78
Methods Sub1 Sub2 Sub3 Sub4 Sub5 Sub6 Sub7 Sub8 Sub9 Sub10 Direct registration 0.303 0.311 0.308 0.324 0.315 0.299 0.309 0.303 0.317 0.308 Inpainted registration 0.309 0.311 0.309 0.324 0.316 0.304 0.312 0.313 0.320 0.312 方法 sub1 sub2 sub4 sub6 sub7 sub8 sub9 sub9 sub10 direct registration 0.303 0.311 0.308 0.324 0.315 0.299 0.309 0.3303 0.317 0.308 inpainted registration 0.309 0.311 0.309 0.324 0.316 0.304 0.313 0.320 0.312 0.62
For quantitative evaluation, we manually generated holes with random size and positions on normal slices of the testing subjects. 定量的評価のために,被験者の正常なスライスにランダムな大きさと位置の穴を手動で生成した。 0.64
Therefore, the ground truth is known. そのため、真理は分かっていない。 0.63
The inpainted images were expected to have sharp and realistic looking textures, be coherent with ¯R, and look similar to its corresponding ground truth. インペイントされた画像はシャープでリアルなテクスチャを持つと予想され、オーロラとコヒーレントで、対応する地上の真実に似ていた。
訳抜け防止モード: 塗装された画像は 鮮明でリアルなテクスチャを持つ r とコヒーレントで、対応する基底真理に類似しているように見える。
0.68
Our results are illustrated in Fig 4. 結果が図4に示されています。 0.72
The proposed method generated visually satisfying results. 提案手法は視覚的に満足できる結果を生成する。 0.60
Table 1 lists numerical comparisons between the proposed approach, Patch-match [3], GLC [16], and Partial Conv [20]. 表1は、提案されたアプローチ、パッチマッチ[3]、glc[16]、部分conv[20]の数値比較を示しています。 0.67
We note that the compared inpainting baselines [16,20] are based on the 1-step framework. 比較した塗装ベースライン [16,20] は1ステップのフレームワークに基づいている。 0.80
We used four quality measurements to assess the performance: mean L1 error, structural similarity index (SSIM), peak signal-to-noise ratio (PSNR), and inception score [34]. 我々は,平均L1誤差,構造類似度指数(SSIM),ピーク信号-雑音比(PSNR),開始スコア[34]の4つの品質測定値を用いて評価を行った。 0.84
We directly computed the mean L1 error and SSIM over the holes, while the incepetion score is measured on the completed I. 我々は, ホール上の平均L1誤差とSSIMを直接計算し, インセプションスコアは完了したI上で測定した。 0.81
Finally, Fig 5 and Table 2 show the results of deformable registration using the ANTs SyN method [1] with normalized cross-correlation as a similarity metric. 最後に、図5と表2は、類似度メトリックとして正規化相互相関を持つアリシン法[1]を用いて変形可能な登録結果を示す。 0.72
As for the target atlas, we used a T1-weighted brain atlas constructed using healthy subjects from the OASIS database [26]. 対象アトラスについては,OASISデータベース[26]から健常者を用いて構築したT1強調脳アトラスを用いて検討した。 0.65
The result was evaluated using mutual information (MI) computed only in normal tissues to achieve a fair comparison (tumor masks were used to exclude the tumor region). その結果,正常組織のみに計算された相互情報(MI)を用いて公正比較を行った(腫瘍領域を除外するために腫瘍マスクを用いた)。 0.85
Direct patient-to-normal registration was affected by the existence of tumor, thus reducing the MI score even in normal tissues. 患者間直接登録は腫瘍の存在によって影響され,正常組織においてもMIスコアが低下した。 0.69
This was corrected by using the これを使って修正しました 0.67
英語(論文から抽出)日本語訳スコア
Symmetric Irregular Inpainting for Brain Tumor MRI Registration 脳腫瘍MRIにおけるシンメトリー不整脈 0.66
9 inpainted volume as registration input, yielding improved or equal MI scores on every subject tested. 9 inpainted volume as registration input, yielding improve or equal MI scores on every subjects test。 0.80
The mean of MI was improved from 0.3097 to 0.3129. MIの平均値は0.3097から0.3129に改善された。 0.62
4 Conclusion This paper presented an inpainting network that replaces the pathological tumor regions with normal brain appearances, targeting patient-to-normal deformable registration. 4 結論 本報告では, 病的腫瘍部位を正常な脳に置き換え, 患者から正常な変形性登録をターゲットとした塗布ネットワークを提案する。 0.65
The challenges lie in irregular brain tumor distribution. 課題は不規則な脳腫瘍の分布にある。 0.66
The twostage inpainting scheme utilized both the complete and segmented samples, producing the refined results based on pixel-wise semantic relevance. 2段階のインペイント方式では, 完全およびセグメント化サンプルを併用し, 画素単位のセマンティック関連性に基づく精細化結果を得た。 0.67
Our experimental results demonstrate that the proposed method surpassed the comparison methods, which can be used for the registration between healthy subjects and tumor patients. 以上の結果から,本手法は健常者と腫瘍患者の登録に使用可能な比較法よりも優れていることが示された。 0.74
5 Acknowledgements This work was supported by NIH R01DE027989, R01DC018511, R01AG061445, and P41EB022544. 5 認定 この研究はNIH R01DE027989、R01DC018511、R01AG061445、P41EB022544によって支援された。 0.47
References 1. Avants, B.B., Tustison, N.J., Song, G., Cook, P.A., Klein, A., Gee, J.C.: A reproducible evaluation of ants similarity metric performance in brain image registration. 参考文献 1. Avants, B.B., Tustison, N.J., Song, G., Cook, P.A., Klein, A., Gee, J.C.: A reprodible evaluation of ants similarity metric performance in brain image registration。 0.80
Neuroimage 54(3), 2033–2044 (2011) 8 Neuroimage 54(3), 2033–2044 (2011) 8 0.92
2. Ballester, C., Bertalmio, M., Caselles, V., Sapiro, G., Verdera, J.: Filling-in by joint interpolation of vector fields and gray levels. 2. ballester, c., bertalmio, m., caselles, v., sapiro, g., verdera, j.: fill-in by joint interpolation of vector fields and gray levels (英語) 0.80
IEEE transactions on image processing 10(8), 1200–1211 (2001) 2 画像処理10(8), 1200-1211 (2001) 2におけるIEEEトランザクション 0.85
3. Barnes, C., Shechtman, E., Finkelstein, A., Goldman, D.B. 3. Barnes, C., Shechtman, E., Finkelstein, A., Goldman, D.B. 0.90
: Patchmatch: A ranimage editing. patchmatch: 画像編集。 0.49
ACM Trans. domized correspondence algorithm for structural Graph. ACMトランス。 構造グラフのための文書対応アルゴリズム 0.72
28(3), 24–1 (2009) 2, 7, 8 28(3), 24–1 (2009) 2, 7, 8 0.91
4. Bauer, S., Wiest, R., Nolte, L.P., Reyes, M.: A survey of mri-based medical image analysis for brain tumor studies. 4. bauer, s., wiest, r., nolte, l.p., reyes, m.: 脳腫瘍研究のためのmriに基づく医用画像解析のサーベイ。 0.83
Physics in Medicine & Biology 58(13), R97 (2013) 1 医学・生物学の物理学 58(13), R97 (2013) 1 0.87
5. Bertalmio, M., Sapiro, G., Caselles, V., Ballester, C.: Image inpainting. 5. Bertalmio, M., Sapiro, G., Caselles, V., Ballester, C.: Image inpainting 0.83
In: Proceedings of the 27th annual conference on Computer graphics and interactive techniques. In: コンピュータグラフィックスとインタラクティブ技術に関する第27回年次会議の成果。 0.82
pp. 417–424 (2000) 2 pp. 417–424 (2000) 2 0.87
6. Chen, T.Q., Schmidt, M.: Fast patch-based style transfer of arbitrary style. 6. Chen, T.Q., Schmidt, M.: 任意のスタイルの高速パッチベースのスタイル転送。 0.80
arXiv preprint arXiv:1612.04337 (2016) 5, 7 arXiv preprint arXiv:1612.04337 (2016) 5, 7 0.83
7. Criminisi, A., P´erez, P., Toyama, K.: Region filling and object removal by exemplarbased image inpainting. 7. criminisi, a., p ́erez, p., toyama, k.: exemplar based image inpaintingによる領域の充填とオブジェクトの除去。 0.79
IEEE Transactions on image processing 13(9), 1200–1212 (2004) 2 IEEE Transactions on Image Processing 13(9), 1200-1212 (2004) 2 0.89
8. Cuadra, M.B., Gomez, J., Hagmann, P., Pollo, C., Villemure, J.G., Dawant, B.M., Thiran, J.P.: Atlas-based segmentation of pathological brains using a model of tumor growth. 8. Cuadra, M.B., Gomez, J., Hagmann, P., Pollo, C., Villemure, J.G., Dawant, B.M., Thiran, J.P.: 腫瘍成長モデルを用いたアトラスベースの病理脳のセグメンテーション。 0.86
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 380–387. pp. 380–387. 0.78
Springer (2002) 2 Springer (2002) 2 0.85
英語(論文から抽出)日本語訳スコア
10 X. Liu et al 10 X. Liu et al 0.92
9. Dawant, B., Hartmann, S., Pan, S., Gadamsetty, S.: Brain atlas deformation in the presence of small and large space-occupying tumors. 9. dawant, b., hartmann, s., pan, s., gadamsetty, s.: brain atlas deformation in presence of small and large space-cupying tumors (英語)
訳抜け防止モード: 9. Dawant, B., Hartmann, S., Pan, S. Gadamsetty, S. : Brain atlas deformation in the presence of small and large space - occupieding tumors。
0.87
Computer Aided Surgery 7(1), 1–10 (2002) 2 computer assisted surgery 7(1), 1–10 (2002) 2 0.86
10. DeAngelis, L.M. 10. デアンジェリス、L.M.。 0.68
: Brain tumors. New England journal of medicine 344(2), 114–123 脳腫瘍。 New England Journal of Medicine 344(2), 114–123 0.70
(2001) 2 11. (2001) 2 11. 0.85
Dosovitskiy, A., Brox, T.: Generating images with perceptual similarity metrics based on deep networks. Dosovitskiy, A., Brox, T.: ディープネットワークに基づく知覚的類似度メトリクスによる画像の生成。 0.78
In: Advances in Neural Information Processing Systems. in: 神経情報処理システムの進歩。 0.71
pp. 658–666 (2016) 5 pp. 658–666 (2016) 5 0.87
12. Efros, A.A., Freeman, W.T. 12. Efros, A.A., Freeman, W.T. 0.83
: Image quilting for texture synthesis and transfer. テクスチャ合成と転写のためのイメージキルト 0.62
In: Proceedings of the 28th annual conference on Computer graphics and interactive techniques. In: コンピュータグラフィックスとインタラクティブ技術に関する第28回年次会議の成果。 0.81
pp. 341–346 (2001) 2 pp. 341–346 (2001) 2 0.87
13. Gatys, L.A., Ecker, A.S., Bethge, M.: Image style transfer using convolutional neural networks. 13. Gatys, L.A., Ecker, A.S., Bethge, M.: 畳み込みニューラルネットワークを用いた画像スタイル転送 0.84
In: Computer Vision and Pattern Recognition (CVPR), 2016 IEEE Conference on. In: Computer Vision and Pattern Recognition (CVPR), 2016 IEEE Conference on 0.72
pp. 2414–2423. pp. 2414–2423. 0.78
IEEE (2016) 5 IEEE (2016) 5 0.85
14. Gooya, A., Biros, G., Davatzikos, C.: Deformable registration of glioma images using em algorithm and diffusion reaction modeling. 14. Gooya, A., Biros, G., Davatzikos, C.: Emアルゴリズムと拡散反応モデリングを用いたグリオーマ画像の変形可能な登録 0.87
IEEE transactions on medical imaging 30(2), 375–390 (2010) 2 ieee transactions on medical imaging 30(2), 375–390 (2010) 2 0.78
15. Iizuka, S., Simo-Serra, E., Ishikawa, H.: Globally and locally consistent image com- 15. izuka, s., simo-serra, e., ishikawa, h.: global and local consistent image com- 0.81
pletion. ACM Transactions on Graphics (TOG) 36(4), 107 (2017) 2 胸。 ACM Transactions on Graphics (TOG) 36(4), 107 (2017) 2 0.59
16. Iizuka, S., Simo-Serra, E., Ishikawa, H.: Globally and locally consistent image com- 16. izuka, s., simo-serra, e., ishikawa, h.: global and local consistent image com- 0.81
pletion. ACM Transactions on Graphics (ToG) 36(4), 1–14 (2017) 7, 8 胸。 ACM Transactions on Graphics (ToG) 36(4), 1–14 (2017) 7, 8 0.63
17. Isola, P., Zhu, J.Y., Zhou, T., Efros, A.A.: Image-to-image translation with conditional adversarial networks. 17. Isola, P., Zhu, J.Y., Zhou, T., Efros, A.A.: 条件付き敵ネットワークによる画像から画像への変換。 0.78
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 1125–1134 (2017) 3 pp. 1125–1134 (2017) 3 0.87
18. Johnson, J., Alahi, A., Fei-Fei, L.: Perceptual losses for real-time style transfer and super-resolution. 18. Johnson, J., Alahi, A., Fei-Fei, L.: リアルタイムスタイル転送と超解像に対する知覚的損失。 0.80
In: European Conference on Computer Vision. 欧州コンピュータビジョン会議 (european conference on computer vision)。 0.65
pp. 694–711. pp. 694–711. 0.78
Springer (2016) 5 Springer (2016) 5 0.85
19. Lamecker, H., Pennec, X.: Atlas to Image-with-Tumor Registration based on 19. Lamecker, H., Pennec, X.:Atlas to Image-with-Tumor Registration 0.88
Demons and Deformation Inpainting (2010) 2 Demons and deformation Inpainting (2010) 2 0.85
20. Liu, G., Reda, F.A., Shih, K.J., Wang, T.C., Tao, A., Catanzaro, B.: Image inpainting for irregular holes using partial convolutions. 20. Liu, G., Reda, F.A., Shih, K.J., Wang, T.C., Tao, A., Catanzaro, B.: Image inpainting for irregular hole using partial convolutions。 0.90
In: Proceedings of the European Conference on Computer Vision (ECCV). 欧州コンピュータビジョン会議(ECCV)に参加。 0.50
pp. 85–100 (2018) 2, 7, 8 pp. 85–100 (2018) 2, 7, 8 0.92
21. Liu, H., Jiang, B., Xiao, Y., Yang, C.: Coherent semantic attention for image inpainting. 21. liu, h., jiang, b., xiao, y., yang, c.: coherent semantic attention for image inpainting。 0.76
In: Proceedings of the IEEE International Conference on Computer Vision. In: Proceedings of the IEEE International Conference on Computer Vision 0.74
pp. 4170–4179 (2019) 2 pp. 4170–4179 (2019) 2 0.87
22. Liu, X., Guo, Z., Li, S., Kong, L., Jia, P., You, J., Kumar, B.: Permutation-invarian t feature restructuring for correlation-aware image set-based recognition. 22. liu, x., guo, z., li, s., kong, l., jia, p., you, j., kumar, b.: permutation-invarian t feature restructuring for correlation-aware image set-based recognition 0.86
In: Proceedings of the IEEE International Conference on Computer Vision. In: Proceedings of the IEEE International Conference on Computer Vision 0.74
pp. 4986–4996 (2019) 4 pp. 4986–4996 (2019) 4 0.87
23. Liu, X., Kumar, B.V., Ge, Y., Yang, C., You, J., Jia, P.: Normalized face image generation with perceptron generative adversarial networks. 23. liu, x., kumar, b.v., ge, y., yang, c., you, j., jia, p.: normalized face image generation with perceptron generative adversarial networks (英語)
訳抜け防止モード: 23. Liu, X., Kumar, B.V., Ge, Y. Yang, C., You, J., Jia, P. : パーセプトロン生成対向ネットワークを用いた正規化顔画像生成
0.86
In: 2018 IEEE 4th International Conference on Identity, Security, and Behavior Analysis (ISBA). 2018年IEEE 4th International Conference on Identity, Security, and Behavior Analysis (ISBA)に参加。 0.80
pp. 1–8. IEEE (2018) 3 pp. 1–8. IEEE (2018) 3 0.80
24. Liu, X., Li, S., Kong, L., Xie, W., Jia, P., You, J., Kumar, B.: Feature-level frankenstein: Eliminating variations for discriminative recognition. 24. liu, x., li, s., kong, l., xie, w., jia, p., you, j., kumar, b.: 特徴レベルのフランケンシュタイン: 識別認識のためのバリエーションの排除。
訳抜け防止モード: 24. Liu, X., Li, S., Kong, L. Xie, W., Jia, P., You, J. Kumar, B. : Feature - Level Frankenstein : 識別識別のための変種を除去する。
0.87
In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In: IEEE Conference on Computer Vision and Pattern Recognitionの開催。 0.72
pp. 637–646 (2019) 4 pp. 637–646 (2019) 4 0.87
25. Marcos, D., Volpi, M., Tuia, D.: Learning rotation invariant convolutional filters 25. Marcos, D., Volpi, M., Tuia, D.: 回転不変畳み込みフィルタの学習 0.86
for texture classification. テクスチャ分類のために 0.75
In: ICPR (2016) 6 in: icpr (2016) 6 0.65
英語(論文から抽出)日本語訳スコア
Symmetric Irregular Inpainting for Brain Tumor MRI Registration 脳腫瘍MRIにおけるシンメトリー不整脈 0.66
11 26. Marcus, D.S., Wang, T.H., Parker, J., Csernansky, J.G., Morris, J.C., Buckner, R.L. 11 26. Marcus, D.S., Wang, T.H., Parker, J., Csernansky, J.G., Morris, J.C., Buckner, R.L. 0.85
: Open access series of imaging studies (oasis): cross-sectional MRI data in young, middle aged, nondemented, and demented older adults. open access series of imaging studies (oasis): 若年者、中高年者、非妊娠者、抑うつ者におけるmri横断データ。 0.63
Journal of cognitive neuroscience 19(9), 1498–1507 (2007) 8 journal of cognitive neuroscience 19(9) 1498–1507 (2007) 8 0.88
27. Mohamed, A., Zacharaki, E.I., Shen, D., Davatzikos, C.: Deformable registration of brain tumor images via a statistical model of tumor-induced deformation. 27. mohamed, a., zacharaki, e.i., shen, d., davatzikos, c.: 腫瘍誘発変形の統計モデルによる脳腫瘍画像の変形可能な登録。 0.86
Medical image analysis 10(5), 752–763 (2006) 2 医用画像解析 10(5), 752-763 (2006) 2 0.85
28. Oishi, K., Faria, A.V., Van Zijl, P.C., Mori, S.: MRI atlas of human white matter. 28. Oishi, K., Faria, A.V., Van Zijl, P.C., Mori, S.: MRI atlas of human white matter。 0.90
Academic Press (2010) 1 Academic Press (2010) 1 0.85
29. Oostenveld, R., Stegeman, D.F., Praamstra, P., van Oosterom, A.: Brain symmetry and topographic analysis of lateralized event-related potentials. 29. Oostenveld, R., Stegeman, D.F., Praamstra, P., van Oosterom, A.: 側方化事象関連電位の脳対称性とトポグラフィー解析 0.88
Clinical neurophysiology 114(7), 1194–1202 (2003) 5 臨床神経生理学 114(7), 1194–1202(2003) 5 0.88
30. Paszke, A., Gross, S., Chintala, S., Chanan, G., Yang, E., DeVito, Z., Lin, Z., Desmaison, A., Antiga, L., Lerer, A.: Automatic differentiation in pytorch (2017) 6 30. Paszke, A., Gross, S., Chintala, S., Chanan, G., Yang, E., DeVito, Z., Lin, Z., Desmaison, A., Antiga, L., Lerer, A.: Automatic differentiation in pytorch (2017) 6 0.86
31. Pathak, D., Krahenbuhl, P., Donahue, J., Darrell, T., Efros, A.A.: Context encoders: Feature learning by inpainting. 31. Pathak, D., Krahenbuhl, P., Donahue, J., Darrell, T., Efros, A.A.: コンテキストエンコーダ: ペイントによる特徴学習。 0.87
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 2536–2544 (2016) 2 pp. 2536–2544 (2016) 2 0.87
32. Prados, F., Cardoso, M.J., Cawley, N., Kanber, B., Ciccarelli, O., WheelerKingshott, C.A.G., Ourselin, S.: Fully automated patch-based image restoration: Application to pathology inpainting. 32. Prados, F., Cardoso, M.J., Cawley, N., Kanber, B., Ciccarelli, O., WheelerKingshott, C.A.G., Ourselin, S.: 完全な自動パッチベースのイメージ復元: 病理検査への応用 0.85
In: International Workshop on Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries. In: International Workshop on Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries (英語) 0.85
pp. 3–15. Springer (2016) 2 pp. 3–15. Springer (2016) 2 0.80
33. Raina, K., Yahorau, U., Schmah, T.: Exploiting bilateral symmetry in brain lesion 33. Raina, K., Yahorau, U., Schmah, T.: Exploitinglateral symmetric in brain lesion 0.82
segmentation. arXiv preprint arXiv:1907.08196 (2019) 5 セグメンテーション arXiv preprint arXiv:1907.08196 (2019) 5 0.57
34. Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Radford, A., Chen, X.: Improved techniques for training gans. 34. Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Radford, A., Chen, X.: ガンの訓練技術の改良。 0.84
In: Advances in neural information processing systems. in: 神経情報処理システムの進歩。 0.74
pp. 2234–2242 (2016) 8 pp. 2234–2242 (2016) 8 0.87
35. Sartor, K.: MR imaging of the brain: tumors. 35. Sartor, K.: MR imaging of the brain: tumors。 0.87
European radiology 9(6), 1047–1054 ヨーロッパ放射線学9(6)1047-1054 0.70
(1999) 2 36. (1999) 2 36. 0.85
Song, Y., Yang, C., Lin, Z., Liu, X., Huang, Q., Li, H., Jay Kuo, C.C. Song, Y., Yang, C., Lin, Z., Liu, X., Huang, Q., Li, H., Jay Kuo, C.C. 0.91
: Contextualbased image inpainting: Infer, match, and translate. : コンテクストベースのイメージインペインティング:推論,マッチング,翻訳。 0.76
In: Proceedings of the European Conference on Computer Vision (ECCV). 欧州コンピュータビジョン会議(ECCV)に参加。 0.50
pp. 3–19 (2018) 2, 3, 4, 5, 7 pp. 3–19 (2018) 2, 3, 4, 5, 7 0.91
37. Sotiras, A., Davatzikos, C., Paragios, N.: Deformable medical image registration: 37. Sotiras, A., Davatzikos, C., Paragios, N.: Deformable Medical Image registration: 0.86
A survey. IEEE transactions on medical imaging 32(7), 1153–1190 (2013) 2 調査。 IEEEによる医療画像32(7), 1153–1190 (2013) 2 0.65
38. Tang, Z., Wu, Y., Fan, Y.: Groupwise registration of mr brain images with tumors. 38. tang, z., wu, y., fan, y.: 腫瘍を伴うmr脳画像の集団登録。 0.79
Physics in Medicine & Biology 62(17), 6853 (2017) 2 医学・生物学の物理学 62(17), 6853(2017)2 0.75
39. Yang, C., Song, Y., Liu, X., Tang, Q., Kuo, C.C.J. 39. Yang, C., Song, Y., Liu, X., Tang, Q., Kuo, C.C.J. 0.92
: Image inpainting using blockwise procedural training with annealed adversarial counterpart. ブロックワイズ・プロシージャ・トレーニングを併用した画像インパインティング 0.48
arXiv preprint arXiv:1803.08943 (2018) 2 arXiv preprint arXiv:1803.08943 (2018) 2 0.78
40. Zacharaki, E.I., Shen, D., Lee, S.K., Davatzikos, C.: Orbit: A multiresolution framework for deformable registration of brain tumor images. 40. Zacharaki, E.I., Shen, D., Lee, S.K., Davatzikos, C.: Orbit: 脳腫瘍画像の変形可能な登録のための多解像度フレームワーク。 0.83
IEEE transactions on medical imaging 27(8), 1003–1017 (2008) 2 ieee transactions on medical imaging 27(8), 1003-1017 (2008) 2 0.75
41. Zhang, R., Isola, P., Efros, A.A., Shechtman, E., Wang, O.: The unreasonable effectiveness of deep features as a perceptual metric. 41. zhang, r., isola, p., efros, a.a., shechtman, e., wang, o.: 知覚的計量としての深い特徴の理不尽な有効性。
訳抜け防止モード: 41. Zhang, R., Isola, P., Efros, A.A. Shechtman, E., Wang, O. : 知覚計量としての深部特徴の不合理な有効性
0.88
arXiv preprint arXiv:1801.03924 (2018) 5 arXiv preprint arXiv:1801.03924 (2018) 5 0.78
42. Zheng, S., Song, Y., Leung, T., Goodfellow, I.: Improving the robustness of deep neural networks via stability training. 42. Zheng, S., Song, Y., Leung, T., Goodfellow, I.: 安定性トレーニングによるディープニューラルネットワークの堅牢性の向上。 0.85
In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. In: IEEE Conference on Computer Vision and Pattern Recognitionの開催。 0.72
pp. 4480–4488 (2016) 5 pp. 4480–4488 (2016) 5 0.87
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。