論文の概要、ライセンス

# (参考訳) 超音波Bスキャンの欠陥検出のための物体検出器判別器を用いた生成対向ネットワーク [全文訳有]

Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans ( http://arxiv.org/abs/2106.04281v1 )

ライセンス: CC BY 4.0
Luka Posilovi\'c, Duje Medak, Marko Subasic, Marko Budimir, Sven Loncaric(参考訳) 非破壊試験は材料の欠陥検出のための一連の技術である。 撮像技術のセットは多様体であるが、超音波イメージングが最も使われている。 この分析は主に、手動で記録された画像を分析する人間の検査者が行う。 実際の超音波検査における欠陥の少ない点, 検査データを考慮した法的な問題点は, 自動超音波画像解析から適切な結果を得るのが困難である。 本稿では,異なる場所に欠陥のある超音波bスキャンを生成するための,新しい深層学習生成逆ネットワークモデルを提案する。 さらに,生成されたb-scanを合成データ拡張に利用し,深層畳み込みニューラルネットワークの性能を向上させることができることを示した。 6000以上の注釈付き欠陥を有する約4000個のBスキャンのデータセット上で本手法を実証した。 実データにおけるトレーニング時の欠陥検出性能は平均71%であった。 生成データのみをトレーニングすることにより、結果が72.1%まで増加し、生成データと実データとを混合することで、平均精度75.7%に達する。 我々は、合成データ生成が限られたデータセットで他の課題に一般化でき、人事訓練に使用できると考えている。

Non-destructive testing is a set of techniques for defect detection in materials. While the set of imaging techniques are manifold, ultrasonic imaging is the one used the most. The analysis is mainly performed by human inspectors manually analyzing recorded images. The low number of defects in real ultrasonic inspections and legal issues considering data from such inspections make it difficult to obtain proper results from automatic ultrasonic image (B-scan) analysis. In this paper, we present a novel deep learning Generative Adversarial Network model for generating ultrasonic B-scans with defects in distinct locations. Furthermore, we show that generated B-scans can be used for synthetic data augmentation, and can improve the performance of deep convolutional neural object detection networks. Our novel method is demonstrated on a dataset of almost 4000 B-scans with more than 6000 annotated defects. Defect detection performance when training on real data yielded average precision of 71%. By training only on generated data the results increased to 72.1%, and by mixing generated and real data we achieve 75.7% average precision. We believe that synthetic data generation can generalize to other challenges with limited datasets and could be used for training human personnel.
公開日: Tue, 8 Jun 2021 12:21:21 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Graphical Abstract Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans Luka Posilovik,Duje Medak,Marko Subašik,Marko Budimir,Sven Lon arik 超音波BスキャンLuka Posilovik,Duje Medak,Marko Subašik,Marko Budimir,Sven Lon arikの欠陥検出のための物体検出器判別器を用いたグラフィカル抽象生成対向ネットワーク 0.86
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V I . 8 ] V 私は。 0.82
s s e e [ 1 v 1 8 2 4 0 s s e [ 1 v 1 8 2 4 0 0.77
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
英語(論文から抽出)日本語訳スコア
Highlights Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans Luka Posilovik,Duje Medak,Marko Subašik,Marko Budimir,Sven Lon arik 超音波BスキャンによるLuka Posilovik,Duje Medak,Marko Subašik,Marko Budimir,Sven Lon arikの欠陥検出のための物体検出器判別器を用いた生成対向ネットワーク 0.83
• A novel GAN architecture for generating high quality images with objects at precise locations • Our proposed GAN is able to generate highly realistic data that can help improve the object detector • An improvement of almost 5% of average precision was achieved when training on a combined dataset of real and • 精度の高い場所でオブジェクトで高品質な画像を生成するための新しいganアーキテクチャ • 提案するganは、オブジェクト検出器の改善に役立つ高度に現実的なデータを生成することができる • real と real の複合データセットでのトレーニングにおいて、平均精度の約5%の改善が達成された。 0.78
images generated with our GAN GANで生成された画像 0.69
英語(論文から抽出)日本語訳スコア
Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans Luka Posilovika,ࢩ, Duje Medaka, Marko Subašika, Marko Budimirb and Sven Lon arika 超音波BスキャンによるLuka Posilovika,..., Duje Medaka, Marko Subašika, Marko Budimirb, Sven Lon arikaの欠陥検出のための物体検出器判別器を用いた生成対向ネットワーク 0.84
aUniversity of Zagreb, Faculty of Electrical Engineering and Computing, Zagreb, Croatia bInstitute for Nuclear Technologies (INETEC), Zagreb, Croatia ARTICLE INFO Keywords: non-destructive testing ultrasonic B-scan automated defect detection image generation generative adversarial networks aiversity of Zagreb, Department of Electro Engineering and Computing, Zagreb, Croatia bInstitute for Nuclear Technologies (INETEC), Zagreb, Croatia ARTICLE INFO Keywords: non-destructive testing Ultra B-scan automated defect detection image generation Generative adversarial network 0.88
ABSTRACT Non-destructive testing is a set of techniques for defect detection in materials. ABSTRACT 非破壊試験は材料の欠陥検出のための一連の技術である。 0.85
While the set of imaging techniques are manifold, ultrasonic imaging is the one used the most. 撮像技術のセットは多様体であるが、超音波イメージングが最も使われている。 0.81
The analysis is mainly performed by human inspectors manually analyzing recorded images. この分析は主に、手動で記録された画像を分析する人間の検査者が行う。 0.58
The low number of defects in real ultrasonic inspections and legal issues considering data from such inspections make it difficult to obtain proper results from automatic ultrasonic image (B-scan) analysis. 実際の超音波検査における欠陥の少ない点, 検査データを考慮した法的な問題点は, 自動超音波画像解析から適切な結果を得るのが困難である。 0.81
In this paper, we present a novel deep learning Generative Adversarial Network model for generating ultrasonic B-scans with defects in distinct locations. 本稿では,異なる場所に欠陥のある超音波bスキャンを生成するための,新しい深層学習生成逆ネットワークモデルを提案する。 0.74
Furthermore, we show that generated B-scans can be used for synthetic data augmentation, and can improve the performance of deep convolutional neural object detection networks. さらに,生成されたb-scanを合成データ拡張に利用し,深層畳み込みニューラルネットワークの性能を向上させることができることを示した。 0.79
Our novel method is demonstrated on a dataset of almost 4000 B-scans with more than 6000 annotated defects. 6000以上の注釈付き欠陥を有する約4000個のBスキャンのデータセット上で本手法を実証した。 0.63
Defect detection performance when training on real data yielded average precision of 71%. 実データにおけるトレーニング時の欠陥検出性能は平均71%であった。 0.83
By training only on generated data the results increased to 72.1%, and by mixing generated and real data we achieve 75.7% average precision. 生成データのみをトレーニングすることにより、結果が72.1%まで増加し、生成データと実データとを混合することで、平均精度75.7%に達する。 0.62
We believe that synthetic data generation can generalize to other challenges with limited datasets and could be used for training human personnel. 我々は、合成データ生成が限られたデータセットで他の課題に一般化でき、人事訓練に使用できると考えている。 0.62
1. Introduction Non-destructive testing (NDT) is widely used in science and industry to evaluate properties of materials, components orsystemswithoutcaus ingdamage[1]. 1. 非破壊試験 (NDT) は, 材料, 部品, システムの性質を評価するために, 科学・産業で広く利用されている。 0.79
Manydifferentmethodsareavail ablesuchasvisualexam ination,ultrasonic,e ddy current, tonameafew. manydifferentmethods are availablesuchas visualexamination,ul trasonic,eddy current, tonameafew. 0.84
Amongthem, ultrasonictesting(UT ) stands out due to its versatility. 超音波検査(UT)はその汎用性から際立っている。 0.68
Highly sensitive on most materials [2], high signal to noise ratio [3], and ability to determine defect location and type [2] are some of its advantages. ほとんどの材料 [2], 高信号対雑音比[3], 欠陥位置と型 [2] を判定する能力は, その利点の一つである。
訳抜け防止モード: ほとんどの材料 [2 ], 高信号対雑音比 [3 ] に非常に敏感である。 欠陥の位置と型を決定する能力 [2] いくつか利点があります
0.85
Ultrasonic data can be represented in several different formats suitable for analysis including A, B, or C-scans [4]. 超音波データは、A、B、Cスキャンなどの分析に適した複数の異なるフォーマットで表現することができる[4]。 0.73
An A-scan is an ultrasonic signal’s amplitude put as a function of time, B-scan displays a cross-sectional view of the inspected material, and a C-scan provides a top view of its projected features [5]. a-scanは超音波信号の振幅を時間関数とし、b-scanは検査対象物の断面図を表示し、c-scanはその投影された特徴[5]のトップビューを提供する。 0.87
During analysis, inspectors use all of them in order to make a decision and evaluate the data. 分析中、インスペクタはすべてのデータを使用して意思決定を行い、データを評価する。
訳抜け防止モード: 分析中、検査官はこれら全てを順に使用する 決定を下し データを評価します
0.75
Automated analysis has long been used in many NDT systems. 自動解析は多くのNDTシステムで長い間使われてきた。 0.65
However, so far it has been limited to classical decision-makingalgor ithmssuchasamplitude threshold[6]. しかし、これまでは古典的な意思決定に制限されていた。 0.57
Complex data such as the one from ultrasonic inspection makes it hard to develop an automated analysis. 超音波検査などの複雑なデータは,自動解析の開発を困難にしている。 0.88
All ultrasonic analysis is, to the best of our knowledge, done manually by a trained human inspector. 超音波分析はすべて、私たちの知る限り、訓練された人間の検査官が手動で行うものです。 0.68
It makes ultrasonic analysis highly reliant on the inspector’s experience. 超音波分析は検査官の経験に非常に依存する。 0.67
The automated analysis could make the process much faster and reliable. 自動分析により、プロセスがより高速で信頼性の高いものになる。 0.62
There have been some attempts in developing an Corresponding author at: University of Zagreb, Faculty of Electrical ザグレブ大学電気学部における「反響する作家」の育成の試み 0.45
luka.posilovic@fer.h r (L. Posilovik); duje.medak@fer.hr (D. luka.posilovic@fer.h r (L. Posilovik), duje.medak@fer.hr (D。 0.75
Engineering and Computing, Croatia Medak); marko.subasic@fer.hr (M. Subašik); marko.budimir@inetec .hr (M. Budimir); sven.loncaric@fer.hr (S. Lon arik) ORCID(s): 0000-0003-2639-0812 (L. Posilovik); 0000-0001-6261-206X (D. Medak); 0000-0002-4321-4557 (M. Subašik); 0000-0001-6508-1305 (M. Budimir); 0000-0002-4857-5351 (S. Lon arik) engineering and Computing, Croatia Medak); marko.subasic@fer.hr (M. Subašik); marko.budimir@inetec .hr (M. Budimir); sven.loncaric@fer.hr (S. Lon arik) ORCID(s): 0000-0003-2639-0812 (L. Posilovik); 0000-0001-6261-206X (D. Medak); 0000-0002-4321-4557 (M. Subašik); 0000-0001-6508-1305 (M. Budimir); 0000-0002-4857-53 (S. Lon arik) 0.71
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
automated UT analysis [7, 8, 9, 6, 5], but very few of them involve using deep learning and modern deep convolutional neural networks (CNNs) on B-scans. UT分析の自動化 [7, 8, 9, 6, 5] が,Bスキャン上でのディープラーニングと最新の深層畳み込みニューラルネットワーク(CNN)の使用は極めて少ない。 0.82
The prerequisite for using deep learning is a large, annotated dataset. ディープラーニングを使うための前提条件は、大きな注釈付きデータセットである。 0.53
Due to the low number of flaws in real ultrasonic inspections and legal issues considering data from such inspections available data is limited. 実際の超音波検査の欠陥が少ないことや、そのような検査データからのデータを考慮した法的な問題は限られている。 0.62
Data is the biggest drawback in the development of proper automated/assisted ultrasonic analysis. データは、適切な自動/補助超音波分析の開発における最大の欠点である。 0.67
This challenge can also be found in many medical image analysis tasks [10] where, due to the rarity of some pathology and patient privacy issues, data availability is very modest. この課題は、いくつかの病理学や患者のプライバシの問題のために、データ可用性が非常に控えめな、多くの医療画像解析タスク(10)にも見られます。 0.67
Furthermore, unlike medical datasets, there are no publicly available UT datasets. さらに、医療データセットとは異なり、UTデータセットは公開されていない。 0.63
Researchers attempt to overcome this problem by using transfer learning [11] in combination with freezing the backendCNNlayers[12]whichisshowntoenhanc etheaccuracy ofmodels. 研究者は、トランスファーラーニング[11]とバックエンドcnnlayers[12]を凍結させることでこの問題を克服しようとしている。 0.51
Usingdataaugmentatio nisalsothestandardpr ocedure for network training. ネットワークトレーニングにdataaugmentationisを使用する。 0.61
However, data augmentation methodsarelimitedand onlyslightlychangeso measpectsof existing images (e g brightness modulation). しかし、データ拡張手法は、既存の画像(輝度変調など)を限定してlightlychangesomeasp ectsである。 0.60
Very limited additional information can be gained by such modifications. このような修正によって、非常に限られた追加情報を得ることができる。 0.50
Synthetic data generation of high-quality images is a new type of state-of-the-art data augmentation [13]. 高品質画像の合成データ生成は新しいタイプの最先端データ拡張 [13] である。 0.84
Generative models such as generative adversarial networks (GANs) offer more variability and enrich the dataset to further improve the training process. GAN(Generative Adversarial Network)のような生成モデルは、より可変性を提供し、データセットを強化し、トレーニングプロセスをさらに改善する。
訳抜け防止モード: GAN(Generative Adversarial Network)のような生成モデルは、より可変性を提供する データセットを豊かにし トレーニングプロセスをさらに改善するためです
0.75
In this work, we have presented a novel GAN architectureforgener atinghighqualityandr ealisticUTB-scans. 本稿では,高品質でリアルなscansを合成する新しいganアーキテクチャについて紹介する。 0.44
Afterward,wehaveused thegeneratedimagesto trainanobject detectionneuralnetwo rktodetectdefectsinr ealimages. その後、我々は生成した画像から検出されたニューロワール・ワークトデクテクトデフェクトインリアル画像を発見した。 0.18
We havecomparedtraining theobjectdetectorwit honlyrealimagesusing traditionaldataaugme ntationandwithGANgen erated images. 従来のデータ拡張とGAN生成画像を用いた実画像のみを学習した。 0.16
We have also developed a more traditional method of generating new images using the Copy/Pasting Page 1 of 8 また,8 の Copy/Pasting Page 1 を用いて,より伝統的な画像生成手法を開発した。 0.78
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
technique which proves the effectiveness of the GAN. GANの有効性を証明する技術。 0.61
1.1. Contributions The main contributions of this work are the following: • a novel GAN architecture for generating high-quality 1.1. 貢献 • 高品質を生成するための新しいganアーキテクチャ 0.56
ultrasonic images with objects at precise locations, 物体が正確な位置にある超音波画像 0.75
• experimental demonstration that expanding the ultrasonic dataset with generated synthetic data increases the performance of the defect detector. • 生成した合成データで超音波データセットを拡張すると欠陥検出器の性能が向上する実験的実証。 0.82
1.2. Related work Data availability is a major problem when using deep learning for defect detection. 1.2. 関連する作業データ可用性は、欠陥検出にディープラーニングを使用する場合の大きな問題である。 0.70
B-scans are the ideal data representation for accurately detecting defects and further estimating their depth and size. Bスキャンは欠陥を正確に検出し、その深さと大きさを推定するための理想的なデータ表現である。
訳抜け防止モード: B-スキャンは欠陥を正確に検出する理想的なデータ表現である さらにその深さと大きさを推定します
0.68
However, a B-scan usually consists of hundreds of A-scans which further aggravates the problem of lack of data. しかし、b-scanは通常数百のa-scanで構成され、データの欠如の問題をさらに悪化させる。 0.70
Developed algorithms for defect detection can be divided into three groups related to data representation being used; A-scans [14, 15, 16, 17, 18, 19, 20, 7, 21, 22, 8, 23], B-scans [24, 25, 6, 5] and C-scans [26,27]. Aスキャン(14,15,16,17,18,19,2 0,7,21,22,8,23],Bスキャン(24,25,6,5],Cスキャン(26,27)という,データ表現に関連する3つのグループに分けられる。
訳抜け防止モード: 欠陥検出のためのアルゴリズムは,データ表現に関連する3つのグループに分類できる。 15, 16, 17, 18, 19, 20, 7, 21, 22, 8, 23 ], B - scans [ 24, 25, 6, 5 ] および c - スキャン [26,27 ]。
0.76
TheA-scananalysisist hemostresearchedgrou pof all which is also related to the data problem. A-scananalysis isthemostresearchedg roup of all are also related to the data problem。 0.84
Developed algorithms mostly include a combination of wavelet transform [14, 15, 16, 17, 18, 19, 9], discrete Fourier transform [7, 21] or discrete cosine transform [21] and a support vector machine or artificial neural network classifier. 開発されたアルゴリズムは主にウェーブレット変換[14,15,16,17,18,19,9]、離散フーリエ変換[7,21]または離散コサイン変換[21]と、支持ベクトルマシンまたは人工ニューラルネットワーク分類器の組み合わせを含む。 0.88
B-scans keep the geometrical coherence of the defect which leads to a better noise immunity [24]. bスキャンは欠陥の幾何学的コヒーレンスを保ち、より優れたノイズ免疫をもたらす[24]。
訳抜け防止モード: B - スキャンは欠陥の幾何学的コヒーレンスを維持する より優れたノイズ免疫をもたらす[24]。
0.82
However, the analysis of B-scans can only be seen in a few works [5, 6]. しかし、b-scanの解析はいくつかの作品でしか見られない [5, 6]。 0.79
In [5] two popular deep learning object detection models, YOLOv3 and SSD, have been used for defect detection. 5]2つの一般的なディープラーニングオブジェクト検出モデル、YOLOv3とSSDは欠陥検出に使われている。 0.72
In [6] a deep learning detectorhasbeenteste donaugmentedimages, butwithonlythree defects in the specimen block. 6] 深層学習検出装置では, 検体ブロックに3つの欠陥がみられた。 0.69
Regarding C-scans, in [26] a method based on the comparison of the scan with a reconstructed reference image has been made. c-スキャンについて,[26]では,スキャンと再構成基準画像の比較に基づく方法が作成されている。 0.79
The method was abletodetectalldefec tsintheirdataset,but withahighnumber of false-positive detections. この方法はalldefectsintheirdat aset, butwitha high number of false-positive detectionsを検出できた。 0.53
There have also been some attempts in estimating defects from noisy measurements using Bayesian analysis [27]. ベイズ解析を用いたノイズ測定から欠陥を推定する試みもいくつか行われている [27]。 0.78
There have been some attempts in using data augmentation to enlarge the existing dataset. 既存のデータセットを拡張するためにデータ拡張を使用する試みがいくつかある。 0.64
As mentioned, in [6], although only three defects were present in the test block, a copy/pasting data augmentation has been used to enlarge the dataset for training a deep learning detector. 前述のように、[6]では、テストブロックに3つの欠陥しかなかったが、深層学習検出器をトレーニングするためのデータセットを拡大するためにコピー/ペーストデータ拡張が使用されている。
訳抜け防止モード: 前述のように [6 ] では テストブロックには3つの欠陥しかなかった コピー/ペーストデータ拡張が使われました ディープラーニング検出器を訓練するためのデータセットを拡大する。
0.80
There are manyvariationsonpast ingandblendingobject sonthebackgroundinor dertomaketheimageslo okasrealisticaspossi ble. manyvariationsonpast ingandblendingobject son thebackgroundinorder tketheimslookasreali sticaspossible。 0.08
Forinstance, itcanbedoneusingGaus sianblurorPoisson blending [28] to smooth the edges. ItcanbedoneusingGaus sianblurorPoisson blending [28] to smooth the edges。 0.56
In [29] a comparison between different merging techniques has been made, using a combination of blending methods performed the best for most objects. 29]では,ほとんどのオブジェクトに最適なブレンディング手法の組み合わせを用いて,異なるマージ手法の比較を行った。 0.69
On the other hand in [30] authors have pasted objects on random backgrounds and achieved improvements without any blending. 一方、[30]では、著者はランダムな背景のオブジェクトをペーストし、ブレンドなしで改善を達成している。 0.60
Finally, generative adversarial networks (GANs) have recently become a popular topic of researchinthefieldofsyntheticdatage nerationandaugmentat ion. 最後に、GAN(Generative Adversarial Network)は近年、研究分野における合成データ生成の強化の話題となっている。 0.50
GANs were first conceptualized in [31] in 2014. GANは2014年に[31]で初めて概念化された。 0.68
They can be used to generate images, video, audio, text, and much more. それら 画像、ビデオ、音声、テキストなどを生成することができます。 0.62
The development of the GAN came a long way in a short period of time. GANの開発は短期間で長い道のりを歩んだ。 0.55
There are many different GAN architectures. GANアーキテクチャには多くの種類がある。 0.63
An interesting approach to GANs are image to image translation models. GANの興味深いアプローチは画像から画像への変換モデルである。 0.59
They are used for style transfer between images [32], image inpainting [33] and even generating images from masks [34]. 画像[32]間のスタイル転送、画像インペイント[33]、マスク[34]からの画像生成などに用いられる。 0.68
One of the examples of those models is the Pix2pixGAN [34] and its successor pix2pixHD [35]. これらのモデルの例の1つはPix2pixGAN[34]とその後継のピクセル2pixHD[35]である。 0.77
GANs show promising results in generating realistic images for human faces from noise with StyleGan2 [36] orconverting position mask images to street-view with Pix2pixHD. GANは、StyleGan2[36]または位置マスク画像をPix2pixHDでストリートビューに変換することで、人間の顔のリアルな画像を生成する有望な結果を示す。 0.58
A lot of work has been done for enlarging data sets in medical imagery. 医療画像にデータセットを拡大するために多くの作業が行われている。 0.77
Pix2pixHD has proved to be useful in generating skin lesion images using semantic label maps [37]. pix2pixhdはセマンティックラベルマップ [37] を用いた皮膚病変画像の作成に有用であることが証明されている。 0.59
An Inception-v4 classifier [38] has been trained using real and combined real and data generated with the Pix2pixHD. Inception-v4分類器[38]は、Pix2pixHDで生成された実データと合成データを用いて訓練されている。 0.62
Training the classifier on a combined real and generated data achieved a 1% improvement of the area under the ROC curve. 実データと生成データを組み合わせた分類器の訓練により, ROC曲線下での領域の1%の改善が達成された。 0.74
In [13] authors have applied the GAN framework to synthesize high-quality liver lesion images for improved classification. 13]では,GANフレームワークを用いて高品質な肝病変画像の合成を行った。 0.71
In [39] authors have developed a multi-channel GAN (M-GAN) to generate PET images from CT scans. In [39] authors has developed a multi-channel GAN (M-GAN) to generate PET image from CT scans。 0.97
A similar approach with a cGAN has been made in [40, 41]. cGANと同じようなアプローチが[40,41]で行われています。 0.81
With generated data, they have achieved a 28% reduction in average false positive per case. 生成されたデータにより、ケース当たりの平均偽陽性率は28%減少した。 0.75
Generating MR images from CT scans with paired and unpaired data has been researched in [42]. ペアデータと非ペアデータを用いたctスキャンからmr画像の生成は [42] で研究されている。
訳抜け防止モード: ペアデータとアンペアデータを用いたCTスキャンからのMR画像の生成 42で研究されています
0.73
An MR-GAN with a concept similartoCycleGAN[32]hasbeendevelopedfort hepurpose. CycleGAN[32]に類似したMR-GANが開発された。 0.49
In [43]aDCGANhasbeenemploye dtogeneraterealistic brain MR images. 43]aDCGANhasbeenemploye dtogeneraterealistic brain MR画像 0.32
Data augmentation using non-convolutional GAN has been tested on three different non-image datasets [44]. 非畳み込みGANを用いたデータ拡張は、3つの異なる非画像データセット [44] でテストされている。 0.58
Generated data has performed even better than real data when classifying using a Decision Tree (DT) classifier. 生成されたデータは、Decision Tree (DT) 分類器を使用して分類する際に、実際のデータよりもさらに優れている。
訳抜け防止モード: 生成されたデータは 実データよりも 決定木(dt)分類器を使用して分類する。
0.74
1.3. Outline This paper is organized as follows. 1.3. 概要 この論文は以下の通り整理される。 0.65
Section 2 gives a detailed description of the dataset. 第2節はデータセットの詳細な説明である。 0.73
Section 3 demonstrates the experimental procedure. 第3節は実験手順を示す。 0.72
Proposed GAN architecture and copy/pasting method are presented in Section 4. 提案するganアーキテクチャとコピー/ペースト手法は、第4節で示される。 0.52
Results are shown in Section 5 and a conclusion is given in Section 6. 結果は第5節で示され、結論は第6節で示される。 0.74
2. Dataset The dataset was obtained by scanning six steel blocks containing artificially created defects in the internal structure. 2. データセット データセットは、内部構造に人工的に生成された欠陥を含む6つのスチールブロックをスキャンして得られた。
訳抜け防止モード: 2. データセット データセットは、 内部構造に人工的な欠陥を含む 6つの鋼ブロックをスキャン
0.83
Blocks varied in size and contained between six to 34 defects. ブロックのサイズは様々で、6から34の欠陥を含んでいる。 0.66
In total there were 68 defects. 合計で68の欠陥があった。 0.77
Blocks were scanned using INETEC Dolphin scanner with phased array probes. INETECドルフィンスキャナーとフェーズドアレイプローブを用いてブロックをスキャンした。 0.73
An INETEC phased array ultrasound transducer of central frequency of 2.25MHz was used. 中心周波数2.25MHzのINETEC位相アレイ超音波トランスデューサを用いた。 0.81
Data were acquired by scanning from an angle of 45 degrees to 79 degrees with a 2-degree increment. データは、45度から79度の角度から2度のインクリメントで取得された。 0.66
Blocks were also scanned with a skew of zero and 180 degrees. ブロックも0度と180度のスキューでスキャンされた。 0.71
INETEC SignyOne data acquisition and analysis software was used to process the data and create B-scans (further noted as images) that were used in the dataset. INETEC SignyOneのデータ取得と解析ソフトウェアは、データセットで使用されたBスキャン(画像として注目される)を作成するために使用された。 0.79
Data were converted to B-scans as-is, without pseudo-coloring, as grayscale images. データはグレースケール画像として擬似色付けなしでBスキャンに変換された。 0.64
All images were then converted into patches of size 256x256 pixels and annotated すべての画像は256x256ピクセルのパッチに変換され、注釈付けされる。 0.67
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 2 of 8 8ページ中2ページ。 0.66
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
Figure 1: Example of an ultrasonic B-scan with defects 図1:欠陥のある超音波Bスキャンの例 0.90
by multiple human experts. 複数の専門家によるものです 0.53
There were in total 3825 images with a total of 6238 annotations. 合計3825枚の画像があり、合計6238枚の注釈がある。 0.60
Dataset was split into train, test, and validation subsets. データセットは、トレイン、テスト、バリデーションサブセットに分割された。 0.59
The train consisted of 2278 images, validation of 379 images, and the test of 1168 images. 列車は2278枚の画像からなり、379枚の画像の検証と1168枚の画像の試験が行われた。 0.48
Details of the dataset split can be seen in Table 1. データセットの分割の詳細は、テーブル1で確認できる。 0.76
The split was made such that defects in each subset are unique, they do not appear in other subsets. 分割は、各サブセットの欠陥がユニークであり、他のサブセットにはないように行われた。 0.74
GAN and the object detector were trained using this train/validation/tes t dataset split. GANとオブジェクト検出器は、このトレイン/バリデーション/テストデータセットスプリットを使用してトレーニングされた。 0.44
As for the copy/pasting method, we copied the defects from the training subset in the form of the rectangle patches fromtheannotationsan dpastedthemontheempt yUTbackgrounds. コピー/ペースト法については, 学習部分集合からの欠陥を, 長方形パッチの形でtheannotations andpastedthemontheem ptyutbackgroundsからコピーした。 0.52
There were 3400 empty UT backgrounds from all of the blocks and 4283 defect patches from the training subset. 全ブロックから3400の空のUTバックグラウンドと、トレーニングサブセットから4283の欠陥パッチがあった。 0.72
Table 1 Number of images and annotations in each of the data subset 表1 データサブセットのそれぞれのイメージとアノテーションの数 0.72
TRAIN VALIDATION TEST Number of images 2278 Number of annotations 4283 列車の検証試験 画像数2278枚 注釈4283枚 0.54
379 745 1168 1210 379 745 1168 1210 0.85
3. Synthetic data generation The acquired dataset might not be enough to properly train an object detector to detect defects. 3. 合成データ生成 取得したデータセットは、欠陥を検出するためにオブジェクト検出器を適切にトレーニングするには不十分かもしれない。 0.74
For this reason, we propose two methods to expand our dataset with synthetic data. そこで本研究では,データセットを合成データで拡張する2つの手法を提案する。 0.72
In this section, we have described the procedure of the experimentinthiswork . 本稿では,本研究における実験手順について述べる。 0.74
Wedevelopedtwomethod sforsyntheticimagege nerationanduseawell- establishedobjectdet ector to test the quality of the generated data. We developed twomethodsforsynthet icimagegeneration anduseawell- establishededobjectd etector to test the quality of the generated data。 0.36
We first start bydescribingthemoret raditionalmethodforg eneratingimages and proceed to describe a deep learning approach with our GAN. まず,従来の手法による画像の生成を記述し,GANによる深層学習のアプローチを記述し始める。 0.60
We then explain the usage of the object detector in the experiment. 次に,実験における物体検出器の使用方法を説明する。 0.76
Our first generative method is a copy/pasting (C/P) technique. 最初の生成方法はコピー/ペースト(c/p)技法である。 0.68
Copy/pasting is a very logical method for enlarging theultrasonicdataset becauseofthelargenum berofB-scans copy/pastingはtheultrasonicdataset becauseofthelargenum berofb-scansを拡張する非常に論理的な方法である 0.52
Figure 2: An example of an empty canvas and a randomly extracted defect 図2:空のキャンバスとランダムに抽出された欠陥の例 0.86
without defects. We call these images canvases because we paste extracted defects on them. 欠陥がない。 私たちはこれらの画像キャンバスを、抽出した欠陥を貼り付けているので呼んでいます。 0.57
We extracted all of the defects from the training set and pasted them on canvases in random locations. トレーニングセットからすべての欠陥を抽出し、ランダムな場所にあるキャンバスに貼り付けました。 0.64
The exact method is explained in the next section. 正確な方法は次の節で説明されている。 0.63
An example of an empty image canvas and an extracted defect can be seen in Figure 2. 空のイメージキャンバスと抽出された欠陥の例を図2に示します。 0.68
The second method we propose is our own GAN architecture for the purpose of generating UT B-scans. 次に提案する手法は,UTBスキャンの生成を目的としたGANアーキテクチャである。 0.70
Our GAN is an image-to-image GAN, with paired position masks as input and real images as a desired output. 我々のGANはイメージ・ツー・イメージのGANであり、入力として位置マスク、所望の出力として実画像がペアリングされている。 0.48
We make position masks from all annotated images in the training set. トレーニングセット内のすべての注釈付き画像から位置マスクを作成する。 0.75
An example of a paired position mask and the real image is shown in Figure 3. 一対の位置マスクと実像の例を図3に示す。 0.62
Position masks on the input of the generator serve as a location label for the desired position of the defect on the generated image. ジェネレータの入力上の位置マスクは、生成された画像の欠陥の所望の位置の場所ラベルとして機能する。 0.81
The main novelty of our GAN is the usage of a pre-trained object detector for training the GAN. GANの目新しいところは、GANのトレーニングに事前訓練された物体検出器を使用することです。 0.63
We use the object detector as an additional discriminator to provide information on the quality of the defect on the generated image when compared to the real image. オブジェクト検出器を付加判別器として使用し、実画像と比較すると、生成画像の欠陥の品質に関する情報を提供する。 0.76
It is importantthatthedefe ctispositionedaccura telyasdrawnin the position mask and that it is merged well with the background. 位置マスクにデフィスポジションを正確に配置し、背景とうまくマージすることが重要である。 0.55
After training the GAN we generated new position masksusedforgenerati ngsyntheticdata. GANをトレーニングした後,新しい位置マスクを作製した。 0.48
Forgeneratingpositio n masks we extract the aspect ratios of all annotations from the training set. フォージェネレーションマスクはトレーニングセットからすべてのアノテーションのアスペクト比を抽出する。 0.66
We then create random masks by randomly putting the white boxes with predefined aspect ratios on black canvases. 次に、黒キャンバスに予め定義されたアスペクト比の白い箱をランダムに配置してランダムマスクを作成する。
訳抜け防止モード: そしてランダムマスクを作る 黒いキャンバスに 予め定義されたアスペクト比で 白い箱をランダムに置きます
0.77
Our generated images have between one and four defects per image. 生成された画像は画像ごとに1から4の欠陥があります。 0.60
For estimating the quality of the generated images we used a popular object detector that was already proven in UT defect detection on images [5], a YOLOv3 [45] object detector. 生成された画像の品質を推定するために、yolov3 [45] オブジェクト検出器である画像 [5] のut欠陥検出ですでに証明された人気のある物体検出器を用いた。 0.77
We first trained the detector using only real images and some traditional augmentations explained in the next section. 我々はまず、実際の画像と、次のセクションで説明したいくつかの伝統的な拡張を使って検出器を訓練した。 0.50
We then tried training the object detector with images generated using the copy/paste method. 次に、コピー/ペースト法を用いて画像を生成するオブジェクト検出器のトレーニングを試みた。 0.64
We also trained the detector with a combination of real and generated images. また,検出器を実画像と生成画像の組み合わせで訓練した。 0.72
We used the object detector trained on real images for train- 実画像で学習した物体検出器を電車に利用した 0.71
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 3 of 8 8ページ3ページ。 0.77
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
Figure 3: A pair of GAN input image and a desired output (real image) 図3:一対のGAN入力画像と所望の出力(実画像) 0.80
ing the GAN. We generated synthetic data with our GAN and again trained the object detector with generated images and a combination of real and generated data. 略称はGAN。 我々はGANで合成データを生成し、オブジェクト検出器を生成画像と実データと実データの組み合わせで訓練した。 0.68
Each of the trainedversionsofthe objectdetectorwastes tedonthesame testdatasetdescribed intheprevioussection . 訓練されたsoftheobjectdetector wastestedonthesame testdatasetdescripti on intheprevioussection 。 0.25
Also, thesame validation set was used in all three training variations. また、thesame validation setは3つのトレーニングバリエーションすべてで使用された。 0.65
4. Methods Inthissection,adetai ledexplanationofdeve lopedmethods is given. 4. 発明の方法, 開発メソッドの詳細な説明が与えられる。 0.66
First, the copy/pasting method is described. まず、コピー/ペースト方法について述べる。 0.66
Thenthearchitectureo fourproposedGANisdes cribedwith all of its special features. そして、その特別な特徴をすべて記述したthearchitectureofour proposedGANis。 0.35
In the end, a short overview of the used object detector is given. 最後に、使用済みオブジェクト検出器の簡単な概要が与えられる。 0.64
4.1. Copy/paste method This method is a simple method that serves to illustrate thecomplexityofgener atingsyntheticdata. 4.1. コピー/ペースト法 この方法は, 合成データの複合性を記述するための簡単な方法である。 0.65
Whiletheseimages might look visually appealing, they are not of the same quality as the ones generated by the GAN. theseimagesは視覚的に魅力的に見えるかもしれないが、ganが生成したものと同じクオリティではない。 0.59
As mentioned in the Section 2 we have previously extracted defects from images in the training set. 第2節で述べたように、私たちは以前トレーニングセットの画像から欠陥を抽出しました。 0.67
We paste themonrandomlocation sonimageswithoutvisi bledefects. 私たちはmonrandomlocationson imageswithoutvisible defectsをペーストします。 0.15
The process goes as follows. その過程は次の通りである。 0.68
First, we randomly pick a canvas and randomly select the defect we would like to paste on it. まず、ランダムにキャンバスを選択し、ペーストしたい欠陥をランダムに選択します。 0.58
We then put a threshold on a defect image. 次に欠陥画像にしきい値を設定します。 0.74
We make a binary pseudo mask by creating a binary image from the thresholded image and dilate it for two iterations. しきい値画像からバイナリ画像を作成し、2回に分けて2つの擬似マスクを作成する。 0.70
We then use the mask to extract only the defect from the initial defect patch image. 次に、初期欠陥パッチ画像から欠陥のみを抽出するためにマスクを使用する。 0.82
We randomly select the position where we will paste the defect and calculate the compatibility of the selected defect background and the canvas on that location. 我々は、欠陥をペーストする位置をランダムに選択し、その場所に選択された欠陥背景とキャンバスの互換性を計算する。 0.81
We calculate the compatibility by calculating an average value of the background of the canvas and the defect. 我々は、キャンバスの背景と欠陥の平均値を計算することで互換性を計算する。 0.77
If these two values do not differ by more than 5%, we accept the proposed location. これら2つの値が5%以上変化しない場合、提案した位置を受け入れる。 0.75
If these two values differ by more than 5% we try to select another location. これら2つの値が5%以上異なる場合、別の場所を選択しようとします。
訳抜け防止モード: この2つの値が 5 % 以上異なる場合 別の場所を選ぼうとします
0.82
We then select another image/canvas pair and repeat the process. 次に、別のイメージ/カンバスペアを選択し、プロセスを繰り返す。 0.55
For each new image, we set the limit of 100 attempts after which we just move on to generate another image. 新しい画像ごとに100回の試行の限界を設定し、次に別の画像を生成します。 0.70
Usually, this limit is enough to never move on, but always be able to find the right canvas/defect and location pair. 通常、この制限は決して進みませんが、常に適切なcanvas/defectとロケーションペアを見つけることができます。 0.76
If we found the right pair, we then proceed to paste the defect on the canvas. 適切なペアを見つけたら、その欠陥をキャンバスに貼り付けます。 0.41
We first adapt the brightness of the defect to even further match 私たちはまず欠陥の明るさを更なる一致に適応させる 0.80
the one from the canvas. We calculate the brightness of the location on the canvas and adapt the brightness of the defect to it. キャンバスのやつだ キャンバス上の位置の輝度を計算し、欠陥の輝度を適合させる。 0.39
All that is left after that is to paste the defect. その後に残るのは、欠陥をペーストすることだけです。 0.60
We concatenate the canvas and the defect, calculate the per pixel minimum of the two and merge it into one resulting image. キャンバスと欠陥を結合し、2つのピクセル当たりの最小値を計算し、1つの画像にマージします。
訳抜け防止モード: 我々はキャンバスと欠陥を結合し、2つのピクセルあたりの最小値を計算する 一つの画像にマージします
0.81
Samples of the real image, image generated with our GAN, and image generated with a copy/paste method are shown in Figure 5. 実画像、GANで生成された画像、コピー/ペースト法で生成された画像のサンプルを図5に示す。 0.78
4.2. GAN The basic idea of GAN is a combination of two neural networks, a generator that generates high-quality images from random noise and a discriminator which tries to distinguish generated images from the real ones. 4.2. GAN GANの基本概念は、2つのニューラルネットワークと、ランダムノイズから高品質な画像を生成するジェネレータと、生成された画像を実際のものと区別しようとする判別器の組み合わせである。 0.74
The constant rivalry between the generator and the discriminator is what makesGANsadversarial . ジェネレータと判別器の絶え間ない競合関係は、makegansadversarialである。 0.58
Mathematically,discr iminatorand generator play a minimax game where the goal of the generator is to maximize the probability of discriminator labeling generated images as real samples and discriminator has the goal of minimizing that probability while being able to label real data as such. 数学的には、判別器とジェネレータは、生成した画像を実際のサンプルとしてラベル付けする確率を最大化することを目的としてミニマックスゲームをし、判別器は、実際のデータをラベル付けしながらその確率を最小化する。 0.69
This neural network configuration enables unsupervised learning of both generator and discriminator. このニューラルネットワーク構成は、ジェネレータと判別器の両方の教師なし学習を可能にする。 0.54
We call our GAN the DetectionGAN for its specific architecture. 我々は、GANを特定のアーキテクチャのための検出GANと呼びます。 0.60
WebaseitonthePix2pix HDimplementingsome of the features from it. WebaseitonthePix2pix HDはその機能のいくつかを実装する。 0.42
Our GAN consists of a U-net generator, two PatchGAN discriminators [34] that work on different scales and a pre-trained object detector which serves as an additional discriminator. 我々のGANは、U-netジェネレータと、異なるスケールで動作する2つのPatchGANディスクリミネータ[34]と、追加のディスクリミネータとして機能する事前訓練対象検出器で構成される。 0.51
We train the GAN with image pairs of real images and their position masks. 我々は、実画像とそれらの位置マスクのイメージペアでGANを訓練する。 0.67
Input to the generator is the position mask defining the position of the defect. ジェネレータへの入力は、欠陥の位置を定義する位置マスクである。 0.74
The output of the generator is connected to the discriminator and to the object detector. ジェネレータの出力は、判別器および物体検出器に接続されている。 0.72
There is a total of 54,409,603 parameters in the generator. ジェネレータには合計54,409,603のパラメータがある。 0.71
All of themarerandomlyiniti alizedandtrained. 初期化・訓練された。 0.34
UnlikeinPix2pixHD, we do not have a two-stage generator nor we upscale the position mask in order to generate a higher resolution image. InPix2pixHDとは異なり、高解像度画像を生成するために2段階のジェネレータも位置マスクのスケールアップもない。 0.71
Discriminator has a position mask image concatenated to the generated or real image as an input. 判別器は、生成された又は実際の画像に結合した位置マスク画像を入力として有する。 0.60
Image and mask are concatenated across channels axis. 画像とマスクはチャネル軸を越えて連結される。 0.70
The goal of the concatenation of the position mask and the image is to provide information on the position of defects in the image for the discriminator. 位置マスクと画像とを結合させる目的は、判別者に対して画像中の欠陥の位置に関する情報を提供することである。 0.82
This concatenation provides an improvement shown in the Section 5. この連結は、第5節に示される改善を提供する。 0.68
Discriminator gets the real and the generatedimageduring eachstepasaninput. discriminator は real と generatedimageduring eachstepasaninput を取得する。 0.41
Sincethereare two discriminators, one of them inputs images downscaled by a factor of two in order for them to work on different scales. 2つの識別器があるので、そのうちの1つは異なるスケールで作業するために2倍の画像をダウンスケールする。 0.65
They have 1,391,554 parameters that are randomly initialized and trained. 1,391,554のパラメータがランダムに初期化され、訓練される。 0.56
For the additional discriminator we use a YOLO object detectorduringthisex periment,butanyother objectdetector could be used. 追加の判別器には、yolo object detectorduringthisex periment, butanyotherobjectdet ectorを使用することができます。 0.59
It helps generate highly realistic images with defects in precise, desired locations. 正確な所望の場所に欠陥のある、非常に現実的な画像を生成するのに役立つ。 0.55
We input the generated image and then the real image pair and compare the outputs. 生成された画像と実画像のペアを入力し、出力を比較する。 0.77
We want these two outputs to be the same so that there is no difference between the generated and real image for the detector. この2つの出力は同じで、検出器の生成された画像と実際の画像に差がないようにしたい。 0.76
This way we ensure defects are placed on the exact locations and without any artifacts. このようにして、欠陥が正確な位置に配置され、アーティファクトがないことを保証します。 0.57
Using an object detector Posilović et al : Preprint submitted to Elsevier 物体検出器の利用 Posilović et al : Elsevierに提出されたプレプリント 0.82
Page 4 of 8 8ページ中4ページ。 0.66
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
Figure 4: Simplified architecture of our DetectionGAN 図4: 検出GANの単純化されたアーキテクチャ 0.69
asadiscriminatorprov idesasignificantimprovementshown in the Section 5. 第5節に記載されている。 0.30
The simplified architecture of our GAN is pictured in Figure 4. GANの単純化されたアーキテクチャを図4に示す。 0.78
Filter sizes at each layer of the generator and discriminators are noted in the figure. 生成器と識別器の各層におけるフィルタサイズは、図に示す。 0.76
4.3. Object detector Our object detector, You Only Look Once (YOLO) version 3 is mainly taken from [5] where it proved to be able to detect defects with high average precision. 4.3. オブジェクト検出器 オブジェクト検出器 一度だけ見える(yolo)バージョン3は、主に[5]から取り出され、高い平均精度で欠陥を検出できることが分かりました。 0.73
With this work, we used the proposed object detector to improve its performance on a more realistic dataset. 本研究では,提案したオブジェクト検出器を用いて,より現実的なデータセットの性能を向上させる。 0.74
We train the object detector on real, generated data and a combination of those two. 私たちは、オブジェクト検出器を実際のデータとそれらの2つの組み合わせで訓練します。 0.68
We train the networks with the same hyperparameters in order to have a fair comparison. 公平な比較を行うために、同じハイパーパラメータでネットワークをトレーニングする。 0.69
We first trained the detector on real data, tuned the hyperparameters to achieve the best possible performance and used the proposed parameters for training with other data combinations. まず、実データに基づいて検出器をトレーニングし、最適性能を達成するためにハイパーパラメータを調整し、提案したパラメータを他のデータの組み合わせでトレーニングした。 0.70
We input images of size 416x416 pixels. サイズ416×416ピクセルの画像を入力する。 0.62
We used a pre-trained backbone and froze its parameters while training. トレーニング中にトレーニング済みのバックボーンを使ってパラメータを凍結しました。 0.57
Hence, we trained only 20,974,518 of a total number of 61,576,342 parameters. その結果,61,576,342個のパラメータのうち20,974,518個しか訓練しなかった。 0.52
5. Experimental setup and results 5.1. 5. 実験と結果5.1。 0.80
Experimental setup In this section, we describe the experiment and parameters used to train our GAN and the object detector. 実験装置 本項では, GAN と対象検出器の訓練に用いる実験とパラメータについて述べる。 0.73
Our experiment goes as follows. 我々の実験は以下の通りである。 0.66
We first train an object detector with real data. まず,実データを用いて物体検出器を訓練する。 0.68
We then used that neural network to train our GAN.Wegeneratedsynth eticimagesusingtheco py/pasting method and the deep learning GAN method. そこで我々は,このニューラルネットワークを用いてGANを学習した。
訳抜け防止モード: 私たちはそのニューラルネットワークを使い 画像・ペースト法と深層学習型GAN法を応用したGANの学習
0.65
We generated 200,000 synthetic images with both copy/paste and GAN method. コピー/ペースト法とGAN法による合成画像20万枚を生成した。 0.57
For each version of GAN we use the same position masks to generate synthetic images. GANの各バージョンでは、同じ位置マスクを使用して合成画像を生成する。 0.70
We again train the objectdetectorusingt hegenerateddataandco mpareresults. objectdetectorusingt he generateddataandcomp areresultsを再びトレーニングします。 0.45
Positionmasksforthei nputoftheGANareofsiz e256x256 GANareofsize256x256の位置マスク 0.25
pixels, as well as the generated images. ピクセル、および生成された画像。 0.70
For training the generator we use Adam optimizer with a first moment term of 0.5, the second one of 0.999, and a learning rate of 0.0002. ジェネレータのトレーニングには、adam optimizerを1モーメント項0.5、0.999の2番目、学習率0.00002で使用します。 0.72
One of our discriminators has an input image of 256x256 pixels,whiletheother onehasadownscaledima geof128x128 pixels as an input. 我々の識別器の1つは256x256ピクセルの入力画像を持ち、その一方128x128ピクセルは入力である。 0.62
We train discriminators using Adam optimizer with the same parameters as the generator. 我々はAdam Optimizationrを使ってジェネレータと同じパラメータで識別器を訓練する。 0.71
We train our GAN using a set of loss functions. 私たちは損失関数のセットを使ってGANを訓練します。 0.65
For the generator, we use four different losses. 発電機には4つの異なる損失がある。 0.74
At the output of the generator, we calculate the L1 loss on the generated image and the paired real image. 生成装置の出力において、生成された画像とペア化された実画像のL1損失を算出する。 0.72
For propagating discriminator output to the generator we use the mean squared error loss. ジェネレータへの判別器出力の伝達には、平均二乗誤差損失を用いる。 0.66
We also use the feature map L1 loss in the generator similar to the one in [35]. また、[35]のものと似たジェネレータのフィーチャーマップL1ロスも使用します。 0.69
Wealsocomparetheoutp utoftheobjectdetecto rwhen inputting the real image and the output from the generator. We alsocomparetheoutput oftheobjectdetectorw hen in the real image and the output from the generator。 0.43
WeusetheL1losstoprop agateitdowntothegene rator. WeusetheL1losstoprop agateitdowntothegene rator 0.21
For training the discriminator we use the mean square error loss, just like it is used in Pix2pixHD. 判別器のトレーニングには、Pix2pixHDと同じように平均2乗誤差損失を使用する。 0.72
We use the pre-trained object detector and do not train it during training the GAN. 我々は、事前訓練対象検出器を使用し、GANの訓練中にトレーニングを行わない。 0.66
We implementasetofsimpl edataaugmentationsfo rtrainingthe GAN including horizontal flipping, brightness modulation, and random cropping. 水平フリップ, 明るさ変調, ランダムな収穫を含むGANを訓練するためのasetofsimpledataaugm entationsを実装した。 0.39
These data augmentations enable us to achieve great results in training the GAN and generating high-quality images. これらのデータ拡張により、GANのトレーニングや高品質な画像の生成において大きな成果が得られます。 0.60
We train the GAN for 800 epochs and for the last 100 epochs we linearly reduce the learning rate to zero. 我々は800エポックでGANを訓練し、過去100エポックで学習率をゼロに線形に下げる。 0.63
Each epoch corresponds to one sweep through all the images in the training dataset. それぞれのエポックは、トレーニングデータセット内のすべてのイメージを一掃する。 0.68
We trained with a batch size eight. バッチサイズ8でトレーニングしました。 0.58
It took us nearly 96 hours to train the GAN using a single NVIDIA RTX 2080Ti graphics card. NVIDIA RTX 2080Tiのグラフィックカードを使って、GANのトレーニングに96時間近くかかりました。 0.84
For training the object detector we used the following configuration. オブジェクト検出器のトレーニングには、以下の設定を使用しました。 0.62
We use batch size eight and Adam optimizer with a learning rate 0.003. バッチサイズ8とadamオプティマイザを学習率0.003で使用する。 0.63
Custom anchors were calculated on the training set for all of the training combinations. カスタムアンカーは、すべてのトレーニング組み合わせのトレーニングセットで計算された。 0.78
We slightly changed only the ignore threshold hyperparameter 無視しきい値のハイパーパラメータだけを変更しました 0.64
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 5 of 8 8ページ5ページ。 0.76
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
Figure 5: Samples of (from left to right): real image, image generated with GAN and a copy/paste image 図5:(左から右へ)実画像、ganで生成された画像、コピー/ペースト画像のサンプル 0.75
to 0.6 from the original YOLO implementation. オリジナルのYOLO実装から0.6まで。 0.71
We used checkpoints while training the model. モデルのトレーニングにチェックポイントを使用しました。 0.68
An early stopping callback was used to stop the training after the validation loss didn’t improve for over eight epochs. バリデーションの損失が8時間以上改善しなかったため、早期停止コールバックがトレーニングの停止に使用された。 0.72
We reduced the learningrateaftereve rytwoepochswithnoimp rovementon the validation set. 我々は検証セットの学習時間を減らした。 0.58
We also used some basic augmentations while training all of the models. すべてのモデルをトレーニングしながら、基本的な拡張も使用しました。 0.57
Those augmentations include horizontal image flipping, random cropping, and HSV space modulation. これらの拡張には水平画像のフリップ、ランダムなトリミング、HSV空間の変調が含まれる。 0.60
I took us 30 minutes to train the object detectorusingonlyrea ldata, andaround24hoursusin ggenerated data. オブジェクト検出専用データを使ったトレーニングに30分かかりました。 0.64
5.2. Results and discussion Theperformanceofthep roposedapproachwaste stedon a test subset. 5.2. 結果と議論 The Performanceofpropose dapproachwastestedon a test subset。 0.53
As described in Section 3 we test the quality of generated images by training an object detector on real and generatedimages. 第3節で述べたように、オブジェクト検出器を実画像と生成画像でトレーニングすることで、生成画像の品質をテストする。 0.64
Weusedanaveragepreci sion(AP)metric for assessing the performance of an object detector on a test set. Weusedanaveragepreci sion (AP)metric for a performance of an object detector on a test set。 0.68
The object threshold of YOLO was 0.001 while the nonmaximumsuppressio nthresholdwas0.5andt heintersection over union was 0.5. YOLOの対象閾値は0.001,非最大圧縮率0.5。 0.69
Generated images used in this test were not handpicked but randomly generated. このテストで使用される生成画像は手書きではなくランダムに生成された。 0.61
Detailed results can be seen in Table 2. 詳細はTable 2で確認できる。 0.53
Using the C/P method for image synthesis did not provide any improvements in the detection. 画像合成にc/p法を用いると,検出精度は改善しなかった。 0.80
When training only on C/P images we acquire a very bad result of only 47.42% AP on the same test set. C/P画像のみのトレーニングでは、同じテストセットで47.42%のAPで非常に悪い結果が得られる。 0.72
When training on the combination of both real and C/P images we again do not get any improvements. 実画像とC/P画像の組み合わせに関するトレーニングでは、再び改善はありません。 0.71
The reasoncouldbethatthi sdatahassomeartifact swhencompared totherealimages. the reasoncouldbethatthi sdatahassomeartifact s whencompared totherealimages。 0.23
Althoughvisually, bothimagesgenerated withGANandwiththecop y/pastemethodlookrea listic, the objectdetectortendst olearnwrongfeaturesa ndcannotconverge to a better model than the one trained on real images. しかし、両方の画像はGANandで生成され、実際の画像で訓練されたものよりも優れたモデルに変換される。 0.35
However, weachievedanimprovem entwithGANgenerated images when opposed to training the object detector with only real images. しかし、weachievedanimprovem entwithgan generated imagesは、実際の画像だけを用いて物体検出器を訓練するのとは対照的である。 0.48
An improvement of 1% has been achieved while training only on GAN generated images, and an improvement of almost 5% of AP was achieved when training on a combined dataset of real and images generated with our GAN. GAN生成画像のみのトレーニングで1%の改善が達成され,GANで生成した実画像と実画像の併用データセットのトレーニングにおいて,APの約5%の改善が達成された。 0.85
As a reference, experiments with two versions of the 参考として、2つのバージョンの実験 0.79
GAN without the object detector discriminator and without position mask and image concatenation in the discriminator were made. 物体検出器判別器を使わず、位置マスクと画像連結器を使わずにGANを作製した。 0.60
Both versions perform worse than our DetectionGAN. どちらのバージョンも検出GANよりもパフォーマンスが悪くなります。 0.50
Table 2 Results of training the object detector on different training datasets 表2 異なる訓練データセットにおける物体検出器の訓練結果 0.88
TRAINING DATA AP (%) TRAINING DATA SIZE 研修データ AP(%)トレーニングデータサイズ 0.60
70.96 Real 47.42 C/P 69.93 C/P + real GAN w/o conc. 70.96 Real 47.42 C/P 69.93 C/P + real GAN w/o conc 0.62
39.90 GAN w/o conc. 39.90 GAN w/o conc。 0.65
+ real 69.92 62.22 GAN w/o yolo 69.3 GAN w/o yolo + real 72.11 DetectionGAN 75.65 DetectionGAN + real This experiment proves that it is important to have the most realistic data as it is possible to achieve an improvement. + real 69.92 62.22 GAN w/o yolo 69.3 GAN w/o yolo + real 72.11 DetectionGAN 75.65 DetectionGAN + real この実験は、改善を達成するために可能な限り最も現実的なデータを持つことが重要であることを証明している。
訳抜け防止モード: + Real 69.92 62.22 GAN w/oyolo 69.3 GAN w/oyolo 72.11 DetectionGAN 75.65 DetectionGAN + real この実験は、 改善できる限り、最も現実的なデータを持つことが重要です。
0.86
It illustrates the complexity of the problem of generating synthetic data for training the object detector. これは、物体検出器を訓練するための合成データを生成するという問題の複雑さを示す。 0.63
Our proposed GAN is able to generate highly realistic data that can help improve the object detector. 提案するganは,物体検出装置の改善に役立つ高度に現実的なデータを生成することができる。
訳抜け防止モード: 提案したGANは オブジェクト検出器を改善するのに役立つ 非常に現実的なデータを生成します
0.75
2,278 200,000 202,278 200,000 202,278 200,000 202,278 200,000 202,278 2,278 200,000 202,278 200,000 202,278 200,000 202,278 200,000 202,278 0.42
6. Conclusion and future work In this paper, we propose a novel generative adversarial network for generating highly realistic B-scans (images) frompositionmaskimag es. 6. 結論と今後の課題 本稿では,高度に現実的なBスキャン(画像)を仮説から生成するための,新たな生成的敵ネットワークを提案する。 0.74
OurGANgenerateshighl yrealistic ultrasonic images from position masks that can be used to train an object detector. 物体検出器の訓練に使用できる位置マスクから、超リアルな超音波画像を生成する。 0.62
We achieved an improvement of almost 5% while training on a combination of generated and real data. 生成データと実データの組み合わせをトレーニングしながら,約5%の改善を達成しました。 0.79
We also developed a copy/pasting method for data augmentation that proved the complexity of improving the average precision of an object detector with additional data. また,データ拡張のためのコピー/ペースト法も開発し,追加データを用いた物体検出器の平均精度向上の複雑さを証明した。 0.78
As we didn’t cherry-pick GAN generated images all of the generated images were proven to be of high quality. チェリーピックのGAN生成画像がなかったので、生成された画像はすべて高品質であることが判明しました。 0.62
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 6 of 8 8ページ中6ページ。 0.65
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
Withtheincreasingpro blemoflackofdataanda dvances in generating high-quality synthetic data, networks such as our GAN could be used in many science and industry fields. 高品質な合成データ生成におけるproblemoflackofdataa ndadvancesの増加に伴い,GANなどのネットワークは多くの科学・産業分野で利用できるようになった。 0.55
In future work, our GAN should be tested using different object detectors. 今後の作業では、ganは異なる物体検出器を使ってテストされるべきです。 0.54
Thisresearchwasco-fu ndedbytheEuropeanUni onthrough Thisresearchwasco-fu nded bytheEuropeanUnionth rough 0.45
7. Acknowledgments the European Regional Development Fund, under the grant KK.01.2.1.01.0151 (Smart UTX). 7. 欧州地域開発基金は、KK.01.2.1.01.01.0151 (スマートUTX)の認可を受けている。 0.67
CRediT authorship contribution statement Luka Posilovik: Conceptualization,Me thodology,Software, Validation, Data Curation, Writing - Original Draft. CRediTの著者コントリビューションステートメント Luka Posilovik: Conceptualization, Methodology,Software , Validation, Data Curation, Writing - Original Draft。 0.81
Duje Medak: Software, Data Curation, Writing - Review andEditing. Duje Medak: ソフトウェア、データキュレーション、書き込み、レビュー、編集。 0.66
Marko Subašik: Conceptualization,Re sources, Writing-ReviewandEdi ting,Supervision. Marko Subašik: 概念化、リソース、リビューと編集、スーパービジョン。 0.65
Marko Budimir: Resources, Data Curation, Writing - Review and Editing, Funding acquisition. Marko Budimir: リソース、データキュレーション、書き込み - レビューと編集、資金調達。 0.61
Sven Lon arik: Resources, Writing - Review and Editing, Supervision, Project administration, Funding acquisition. Sven Lon arik: Resources, Writing - Review and Editing, Supervision, Project Management, Funding acquisition。 0.81
References [1] L.Cartz, Nondestructivetestin g: radiography, ultrasonics, liquidpen- 文献 [1] l.cartz, nondestructive testinging: radiography, ultrasonics, liquidpen- 0.84
[3] P. Broberg, Imaging and analysis methods for automated weld inspec[4] J. Krautkrämer, H. Krautkrämer, Ultrasonic Testing of Materials, [3] p. broberg, imaging and analysis methods for automated weld inspec[4] j. krautkrämer, h. krautkrämer, ultrasonic testing of materials, (特集 超音波) 0.84
etrant, magnetic particle, eddy current, ASM International, 1995. etrant, magnetic particle, eddy current, asm international, 1995年。 0.78
URL https://books.google .hr/books?id=0spRAAAAMAAJ [2] J.Ye,S.Ito,N.Toyama, Computerizedultrason icimaginginspection: From shallow to deep learning, Sensors 18 (11) (2018) 3820. doi: 10.3390/s18113820. URL https://books.google .hr/books?id=0spRAAAAMAAJ [2] J.Ye,S.Ito,N.Toyama, Computerizedultrason icimaging Inspection: From shallow to Deep Learning, Sensors 18 (11) (2018) 3820.doi: 10.3390/s18113820 0.65
URL https://doi.org/10.3 390/s18113820 tion, Ph.D. thesis, Luleå tekniska universitet (2014). URL https://doi.org/10.3 390/s18113820 tion, Ph.D.thesis, Luleå tekniska universitet (2014) 0.62
Springer-Verlag, 1983. URL https://books.google .hr/books?id=AvwrAAAAIAAJ [5] L. Posilovik, D. Medak, M. Subašik, T. Petkovik, M. Budimir, S. Lon arik, Flaw detection from ultrasonic images using yolo and ssd, in: 201911thInternationa lSymposiumonImageand SignalProcessing and Analysis (ISPA), IEEE, 2019, pp. 春田、1983年。 URL https://books.google .hr/books?id=AvwrAAAAIAAJ [5] L. Posilovik, D. Medak, M. Subašik, T. Petkovik, M. Budimir, S. Lon arik, Flaw detection from Ultra image using yolo and ssd, in: 201911th InternationalSymposi umonImageandSignalPr ocessing and Analysis (ISPA), IEEE, 2019, pp. 0.56
163–168. [6] I. Virkkunen, T. Koskinen, O. Jessen-Juhler, J. Rinta-Aho, Augmented ultrasonic data for machine learning, arXiv preprint arXiv:1903.11399. 163–168. [6] I. Virkkunen, T. Koskinen, O. Jessen-Juhler, J. Rinta-Aho, Augmented Ultra data for machine learning, arXiv preprint arXiv:1903.11399 0.76
[7] I. S. Souza, M. C. Albuquerque, E. F. de SIMAS FILHO, C. T. FARIAS,Signalprocess ingtechniquesforultr asoundautomaticident ification of flaws in steel welded joints–a comparative analysis, in: 18th World Conference on Nondestructive Testing, 2012, pp. I.S. Souza, M. C. Albuquerque, E. F. de SIMAS FILHO, C. T. FARIAS,Signalprocess ingtechniquesforultr asoundautomatictific ation of flaws in Steel Welded Joints-a comparative analysis, in: 18th World Conference on Nondestructive Testing, 2012. pp. 0.58
16–20. [8] N. Munir, H.-J. 16–20. N. Munir, H.-J. 0.70
Kim, S.-J. Song, S.-S. Kang, Investigation of deep neuralnetworkwithdro poutforultrasonicflawclassificationinweldments, Journal of Mechanical Science and Technology 32 (7) (2018) 3073–3080. キム、S.J。 Song, S.-S. Kang, Investigation of Deep Neuralnetworkwithdro poutforultrasonicfla wclassification Inweldments, Journal of Mechanical Science and Technology 32 (7) (2018) 3073–3080 0.53
doi:10.1007/s12206-0 18-0610-1. doi:10.1007/s12206-0 18-0610-1。 0.20
URL https://doi.org/10.1 007/s12206-018-0610- 1 [9] M. Meng, Y. J. Chua, E. Wouterson, C. P. K. Ong, Ultrasonic signal classification and imaging system for composite materials via deep convolutional neural networks, Neurocomputing 257 (2017) 128– 135. URL https://doi.org/10.1 007/s12206-018-0610- 1 [9] M. Meng, Y. J. Chua, E. Wouterson, C. P. K. Ong, Ultra signal classification and imaging system for Composite materials via Deep Convolutional Neural Network, Neurocomputing 257 (2017) 128–135。 0.73
[10] C. Shorten, T. M. Khoshgoftaar, A survey on image data augmentation for deep learning, Journal of Big Data 6 (1) (2019) 60. 10] c. shorten, t. m. khoshgoftaar, a survey on image data augmentation for deep learning, journal of big data 6 (1) (2019) 60。 0.80
[11] D. Ventura, S. Warnick, A theoretical foundation for inductive transfer,BrighamYoun gUniversity,Collegeo fPhysicalandMathemat ical Sciences. D. Ventura, S. Warnick, A Theory foundation for inductive transfer, BrighamYoungUniversi ty,CollegeofPhysical andMathematical Sciences 0.67
doi:10.1007/ doi:10.1007/ 0.34
[12] D. Soekhoe, P. Van Der Putten, A. Plaat, On the impact of data set size in transfer learning using deep neural networks, in: International Symposium on Intelligent Data Analysis, Springer, 2016, pp. D. Soekhoe, P. Van Der Putten, A. Plaat, on the impact of data set size in transfer learning using Deep Neural Network, in: International Symposium on Intelligent Data Analysis, Springer, 2016 pp。
訳抜け防止モード: [12 ]D. soekhoe, P. Van Der Putten, A. Plaat, 深層ニューラルネットワークを用いた伝達学習におけるデータセットサイズの影響について In : International Symposium on Intelligent Data Analysis, Springer, 2016pp
0.87
50–60. [13] M. Frid-Adar, I. Diamant, E. Klang, M. Amitai, J. Goldberger, H. Greenspan, Gan-based synthetic medical image augmentation for increased cnn performance in liver lesion classification, Neurocomputing 321 (2018) 321–331. 50–60. M. Frid-Adar, I. Diamant, E. Klang, M. Amitai, J. Goldberger, H. Greenspan, Gan-based synthetic medical image augmentation for increase cnn performance in liver lesion classification, Neurocomputing 321 (2018) 321–331。 0.81
[14] F. Bettayeb, T. Rachedi, H. Benbartaoui, An improved automated ultrasonic nde system by wavelet and neuron networks, Ultrasonics 42 (1) (2004) 853 – 858, proceedings of Ultrasonics International 2003. doi:https://doi.org/ 10.1016/j.ultras.200 4.01.064. 14] f. bettayeb, t. rachedi, h. benbartaoui, an improved automated ultrasonic nde system by wavelet and neuron networks, ultrasonics 42 (1) (2004) 853 – 858, proceedings of ultrasonics international 2003. doi:https://doi.org/ 10.1016/j.ultras.200 4.01.064 0.76
URL https://doi.org/10.1 016/j.ultras.2004.01 .064 [15] S. Sambath, P. Nagaraj, N. Selvakumar, Automatic defect classification in ultrasonic ndt using artificial intelligence, Journal of Nondestructive Evaluation 30 (1) (2011) 20–28. URL https://doi.org/10.1 016/j.ultras.2004.01 .064 [15] S. Sambath, P. Nagaraj, N. Selvakumar, Automatic defect classification in Ultra ndt using Artificial Intelligence, Journal of Nondestructive Evaluation 30 (1) (2011) 20–28 0.72
s10921-010-0086-0. s10921-010-0086-0。 0.33
URL https://doi.org/10.1 007/s10921-010-0086- 0 [16] Y. Chen, H.-W. Ma, G.-M. Zhang, A support vector machine approach for classification of welding defects from ultrasonic signals, Nondestructive Testing and Evaluation 29 (3) (2014) 243– 254. arXiv:https://doi.or g/10.1080/10589759.2 014.914210, doi:10. URL https://doi.org/10.1 007/s10921-010-0086- 0 [16] Y. Chen, H.-W. Ma, G.-M. Zhang, A support vector machine approach for classification of welding defects from Ultra signal, Nondestructive Testing and Evaluation 29 (3) (2014) 243–254. arXiv:https://doi.or g/10.1080/10589759.2 014.914210, doi:10 0.64
1080/10589759.2014.9 14210. 1080/10589759.2014.9 14210. 0.39
URL https://doi.org/10.1 080/10589759.2014.91 4210 [17] A.Al-Ataby,W.Al-Nuai my,C.Brett,O.Zahran, Automaticdetection and classification of weld flaws in tofd data using wavelet transform and support vector machines, Insight - Non-Destructive Testing and Condition Monitoring 52 (2010) 597–602. url https://doi.org/10.1 080/10589759.2014.91 4210 [17] a.al-ataby,w.al-nuai my,c.brett,o.zahran, automatic detection and classification of weld flaws in tofd data using wavelet transform and support vector machines, insight - non-destructive testing and condition monitoring 52 (2010) 597–602。 0.64
doi:10.1784/insi.201 0. Doi:10.1784/insi.201 0 0.30
52.11.597. 52.11.597. 0.50
URL https://doi.org/10.1 784/insi.2010.52.11. 597 [18] V. Matz, M. Kreidl, R. Smid, Classification of ultrasonic signals, International Journal of Materials 27 (2006) 145–. url https://doi.org/10.1 784/insi.2010.11.597 [18] v. matz, m. kreidl, r. smid, classification of ultrasonic signals, international journal of materials 27 (2006) 145– 0.66
doi:10.1504/IJMPT. Doi:10.1504/IJMPT。 0.33
2006.011267. 2006.011267. 0.71
URL https://doi.org/10.1 504/IJMPT.2006.01126 7 [19] M. Khelil, M. Boudraa, A. Kechida, R. Drai, Classification of Defects by the SVM Method and the Principal Component Analysis (PCA) (09 2007). URL https://doi.org/10.1 504/IJMPT.2006.01126 7 [19] M. Khelil, M. Boudraa, A. Kechida, R. Drai, Classification of Defects by the SVM Method and the principal Component Analysis (PCA) (2007)。 0.77
doi:10.5281/zenodo.1 060751. Doi:10.5281/zenodo.1 060751 0.27
URL https://doi.org/10.5 281/zenodo.1060751 [20] M. Meng, Y. J. Chua, E. Wouterson, C. P. K. Ong, Ultrasonic signal classification and imaging system for composite materials via deep convolutional neural networks, Neurocomputing 257 (2017) 128 – 135, machine Learning and Signal Processing for Big Multimedia Analysis. url https://doi.org/10.5 281/zenodo.1060751 [20] m. meng, y.j. chua, e. wouterson, c. p. k. ong, ultrasonic signal classification and imaging system for composite materials via deep convolutional neural networks, neurocomputing 257 (2017) 128 – 135, machine learning and signal processing for big multimedia analysis 0.85
doi:https://doi.org/ 10.1016/j.neucom.201 6.11.066. doi:https://doi.org/ 10.1016/j.neucom.201 6.11.066 0.34
URL https://doi.org/10.1 016/j.neucom.2016.11 .066 [21] F. Cruz, E. S. Filho, M. Albuquerque, I. Silva, C. Farias, L. Gouvêa, Efficient feature selection for neural network based detection of flaws in steel welded joints using ultrasound testing, Ultrasonics 73 (2017) 1 – 8. doi:https://doi.org/ 10.1016/j.ultras.201 6.08.017. URL https://doi.org/10.1 016/j.neucom.2016.11 .066 [21] F. Cruz, E. S. Filho, M. Albuquerque, I. Silva, C. Farias, L. Gouvêa, Efficient feature selection for neural network based using steel welded joints using Ultrasonics 73 (2017) 1 – 8. doi:https://doi.org/ 10.1016/j.ultras.201 6.08.017 0.69
URL https://doi.org/10.1 016/j.ultras.2016.08 .017 [22] G. A. Guarneri, F. N. Junior, L. de Arruda, Weld discontinuities classification using principal component analysis and support vector machine,XISimpósioBrasileirodeAutom açaoInteligente(2013)2 358– 4483. URL https://doi.org/10.1 016/j.ultras.2016.08 .017 [22] G. A. Guarneri, F. N. Junior, L. de Arruda, Weld discontinuities classification using principal component analysis and support vector machine, XISimpósioBrasileirodeAutom açao Inteligente(2013)235 8–4483。 0.64
[23] J. Veiga, A. [23]J. Veiga, A. 0.91
A. de Carvalho, I. Silva, J. M. A. Rebello, The use of artificial neural network in the classification of pulse-echo and tofd ultra-sonic signals, Journal of The Brazilian Society of Mechanical Sciences and Engineering - J BRAZ SOC MECH SCI ENG 27. doi: 10.1590/S1678-587820 05000400007. A. de Carvalho, I. Silva, J. M. A. Rebello, The use of artificial neural network in classification of pulse-echo and tofd Ultra-soonic signal, Journal of the Brazil Society of Mechanical Sciences and Engineering - J BRAZ SOC MECH SCI ENG 27. doi: 10.1590/S1678-587820 050004,00007 0.87
URL https://doi.org/10.1 590/S1678-5878200500 0400007 [24] H. Cygan, L. Girardi, P. Aknin, P. Simard, B-scan ultrasonic image analysis for internal rail defect detection, in: World Congress on Railway Research, 2003. URL https://doi.org/10.1 590/S1678-5878200500 04,00007 [24] H. Cygan, L. Girardi, P. Aknin, P. Simard, B-scan Ultra imaging analysis for internal rail defect detection, in: World Congress on Railway Research, 2003 0.76
[25] A. Kechida, R. Drai, A. Guessoum, Texture analysis for flaw detection in ultrasonic images, Journal of Nondestructive Evaluation 31 (2) (2012) 108–116. A. Kechida, R. Drai, A. Guessoum, Texture Analysis for flaw detection in Ultra image, Journal of Nondestructive Evaluation 31 (2) (2012) 108–116。 0.83
doi:10.1007/s10921-0 11-0126-4. doi:10.1007/s10921-0 11-0126-4。 0.20
URL https://doi.org/10.1 007/s10921-011-0126- 4 [26] H. Kieckhoefer, J. Baan, A. Mast, W. A. Volker, Image processing techniques for ultrasonic inspection, in: Proc. URL https://doi.org/10.1 007/s10921-011-0126- 4 [26] H. Kieckhoefer, J. Baan, A. Mast, W. A. Volker, Image Processing Technique for Ultra inspection, in: Proc.org 0.64
17th World Conference on Nondestructive Testing, Shanghai, China, 2008. 第17回非破壊試験世界会議, 上海, 中国, 2008年 0.84
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 7 of 8 8ページ7ページ。 0.77
英語(論文から抽出)日本語訳スコア
Generating Ultrasonic B-scans with Generative Adversarial Network 生成逆ネットワークを用いた超音波Bスキャンの生成 0.58
[27] A. Dogandzic, B. Zhang, Bayesian nde defect signal analysis, Signal Processing, IEEE Transactions on 55 (2007) 372 – 378. doi:10.1109/ TSP.2006.882064. A. Dogandzic, B. Zhang, Bayesian nde defect signal analysis, Signal Processing, IEEE Transactions on 55 (2007) 372 - 378. doi:10.1109/ TSP.2006.882064 0.90
URL https://doi.org/10.1 109/TSP.2006.882064 [28] P.Pérez,M.Gangnet,A.Blak e,Poissonimageeditin g,in: ACMSIGGRAPH 2003 Papers, 2003, pp. URL https://doi.org/10.1 109/TSP.2006.882064 [28] P.Pérez,M.Gangnet,A.Blak e,Poissonimageeditin g,in: ACMSIGGRAPH 2003 Papers, 2003, pp。 0.66
313–318. [29] D. Dwibedi, I. Misra, M. Hebert, Cut, paste and learn: Surprisingly easy synthesis for instance detection, in: Proceedings of the IEEE International Conference on Computer Vision, 2017, pp. 313–318. [29] d. dwibedi, i. misra, m. hebert, cut, paste and learn: surprisingly easy synthesis for instance detection, in: proceedings of the ieee international conference on computer vision, 2017 pp. (英語) 0.77
1301–1310. 1301–1310. 0.71
[30] J. Rao, J. Zhang, Cut and paste: Generate artificial labels for object detection, in: Proceedings of the International Conference on Video and Image Processing, 2017, pp. J. Rao, J. Zhang, Cut and Paste: Generate artificial labels for object detection, in: Proceedings of the International Conference on Video and Image Processing, 2017 pp。 0.75
29–33. [31] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio, Generative adversarial nets, in: Advances in neural information processing systems, 2014, pp. 29–33. [31]I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio, Generative adversarial nets, in: Advances in neural information processing system, 2014 pp。 0.81
2672– 2680. 2672– 2680. 0.94
[32] J.-Y. Zhu, T. Park, P. Isola, A. [32]J-Y。 Zhu, T. Park, P. Isola, A。 0.86
A. Efros, Unpaired image-to-image translation using cycle-consistent adversarial networks, in: Proceedings of the IEEE international conference on computer vision, 2017, pp. A. Efros, Unpaired image-to-image translation using cycle-consistent adversarial network, in: Proceedings of the IEEE International conference on computer vision, 2017 pp。 0.93
2223–2232. 2223–2232. 0.71
[33] G. Liu, F. A. Reda, K. J. Shih, T.-C. Wang, A. Tao, B. Catanzaro, Image inpainting for irregular holes using partial convolutions, in: Proceedings of the European Conference on Computer Vision (ECCV), 2018, pp. G. Liu, F. A. Reda, K. J. Shih, T.-C. Wang, A. Tao, B. Catanzaro, Image inpainting for irregular hole using partial convolutions, in: Proceedings of the European Conference on Computer Vision (ECCV), 2018, pp. 0.92
85–100. [34] P. Isola, J.-Y. 85–100. [34]P. Isola, J.-Y。 0.75
Zhu, T. Zhou, A. Zhu, T. Zhou, A。 0.91
A. Efros, Image-to-image translation with conditional adversarial networks, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. A.Efros, Image-to-image translation with conditional adversarial network, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2017 pp。 0.90
1125–1134. 1125–1134. 0.71
[35] T.-C. Wang, M.-Y. [35]T.-C. Wang, M.-Y。 0.69
Liu, J.-Y. Liu, J.-Y。 0.81
Zhu, A. Tao, J. Kautz, B. Catanzaro, High-resolutionimage synthesisandsemantic manipulationwithcond itional gans, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. Zhu, A. Tao, J. Kautz, B. Catanzaro, High- resolutionimage synthesis andsemanticmanipulat ion withconditional gans, in: Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp。 0.91
8798–8807. 8798–8807. 0.71
[36] T. Karras, S. Laine, M. Aittala, J. Hellsten, J. Lehtinen, T. Aila, Analyzing and improving the image quality of StyleGAN, in: Proc. [36]T. Karras, S. Laine, M. Aittala, J. Hellsten, J. Lehtinen, T. Aila, Analyzing and improve the image quality of StyleGAN, in: Proc. 0.99
CVPR, 2020. CVPR、2020年。 0.88
[37] A. Bissoto, F. Perez, E. Valle, S. Avila, Skin lesion synthesis with generative adversarial networks, in: OR 2.0 Context-Aware OperatingTheaters, ComputerAssistedRobo ticEndoscopy, ClinicalImageBasedPr ocedures, andSkinImageAnalysis , Springer,2018, pp.294– 302. A. Bissoto, F. Perez, E. Valle, S. Avila, Skin lesion synthesis with generative adversarial network, in: OR 2.0 Context-Aware OperatingTheaters, ComputerAssistedRobo ticEndoscopy, ClinicalImageBasedPr ocedures, andSkinImageAnalysis , Springer, 2018, pp.294–302。 0.76
Inception-v4, inception-resnet and the impact of residual connections on learning, arXiv preprint arXiv:1602.07261. Inception-v4, inception-resnet, and the impact of residual connection on learning, arXiv preprint arXiv:1602.07261。 0.72
[39] L. Bi, J. Kim, A. Kumar, D. Feng, M. Fulham, Synthesis of positron emission tomography (pet) images via multi-channel generative adversarial networks (gans), in: molecular imaging, reconstruction and analysis of moving body organs, and stroke imaging and treatment, Springer, 2017, pp. [39] l. bi, j. kim, a. kumar, d. feng, m. fulham, synthesis of positron emission tomography (pet) images via multi-channel generative adversarial network (gans) in: molecular imaging, reconstruction and analysis of moving body organ, and stroke imaging and treatment, springer, 2017 pp. (英語) 0.91
43–51. [40] A. Ben-Cohen, E. Klang, S. P. Raskin, M. M. Amitai, H. Greenspan, Virtual pet images from ct data using deep convolutional networks: initial results, in: International Workshop on Simulation and Synthesis in Medical Imaging, Springer, 2017, pp. 43–51. A. Ben-Cohen, E. Klang, S. P. Raskin, M. M. Amitai, H. Greenspan, Virtual pet image from ct data using Deep Convolutional network: initial results, in: International Workshop on Simulation and Synthesis in Medical Imaging, Springer, 2017 pp。 0.80
49–57. [41] A. Ben-Cohen, E. Klang, S. P. Raskin, S. Soffer, S. Ben-Haim, E. Konen, M. M. Amitai, H. Greenspan, Cross-modality synthesis from ct to pet using fcn and gan networks for improved automated lesion detection, Engineering Applications of Artificial Intelligence 78 (2019) 186–194. 49–57. A. Ben-Cohen, E. Klang, S. P. Raskin, S. Soffer, S. Ben-Haim, E. Konen, M. M. Amitai, H. Greenspan, ctからペットへのクロスモダリティ合成, fcnとganネットワークによる自動病変検出の改善, 人工知能 78 (2019) 186–194。 0.76
[42] C.-B. Jin, H. Kim, M. Liu, W. Jung, S. Joo, E. Park, Y. S. Ahn, I. H. Han, J. I. Lee, X. Cui, Deep ct to mr synthesis using paired and unpaired data, Sensors 19 (10) (2019) 2361. [42]C.-B。 Jin, H. Kim, M. Liu, W. Jung, S. Joo, E. Park, Y. S. Ahn, I. H. Han, J. I. Lee, X. Cui, Deep ct to mr synthesis using paired and unpaired data, Sensors 19 (10) (2019) 2361。 0.87
[43] K. Kazuhiro, R. A. Werner, F. Toriumi, M. S. Javadi, M. G. Pomper, L. B. Solnes, F. Verde, T. Higuchi, S. P. Rowe, Generative adversarial networks for the creation of realistic artificial brain magnetic resonance images, Tomography 4 (4) (2018) 159. 43] K. Kazuhiro, R. A. Werner, F. Toriumi, M. S. Javadi, M. G. Pomper, L. B. Solnes, F. Verde, T. Higuchi, S. P. Rowe, Generative adversarial network for the create of real artificial brain magnetic resonance image, Tomography 4 (4) (2018) 159。 0.94
[44] F.H.K.d.S.Tanaka,C.A ranha,Dataaugmentati onusinggans,arXiv preprint arXiv:1904.09135. [44]F.H.K.D.S.Tanaka,C.A ranha,Dataaugmentati onusinggans,arXiv preprint arXiv:1904.09135 0.56
[45] J. Redmon, A. Farhadi, Yolov3: An incremental improvementCite arxiv:1804.02767Comm ent: Tech Report. J. Redmon, A. Farhadi, Yolov3: An incremental improvementCite arxiv:1804.02767Comm ent: Tech Report 0.89
[38] C. Szegedy, S. Ioffe, V. Vanhoucke, A. Alemi, [38]C. Szegedy, S. Ioffe, V. Vanhoucke, A. Alemi 0.97
URL https://arxiv.org/ab s/1804.02767 URL https://arxiv.org/ab s/1804.02767 0.39
Luka Posilovik received his M.Sc. ルカ・ポシロヴィクはM.S.を取得した。 0.35
from the University of Zagreb, Faculty of Electrical Engineering and Computing in 2019. 2019年にザグレブ大学電気工学・計算機学部を卒業。 0.57
He is currently working as a young researcher in an Image Processing Group in the Department of Electronic Systems and Information Processing and working on his Ph.D. on the same University. 現在は電子システム・情報処理部の画像処理グループで若い研究者として働き、同大学の博士号も取得している。 0.62
His research interestsincludevisu alqualitycontrol, deeplearning object detection and synthetic image generation. 彼の研究は視覚品質制御、ディープラーニングオブジェクト検出、合成画像生成などに興味がある。 0.49
Duje Medak received his M.Sc. デュジェ・メダックはM.S.を取得した。 0.33
from the University of Zagreb, Faculty of Electrical Engineering and Computing in 2019. 2019年にザグレブ大学電気工学・計算機学部を卒業。 0.57
He is currently pursuing the Ph.D. degree in the same faculty while working as a researcher in the Image Processing Group intheDepartmentofEle ctronicSystemsandInf ormation Processing. 現在、同学部で博士号を取得中、Image Processing Group in theDepartmentofElect ronicSystemsandInfor mation Processingの研究者として働いている。 0.43
His research interests include image processing, image analysis, machine learninganddeeplearn ing. 研究分野は画像処理、画像解析、機械学習と深層学習。 0.74
Hiscurrentresearchin terest includes deep learning object detection methods and their application in the non-destructive testing (NDT) domain. Hiscurrentresearches tにはディープラーニングオブジェクト検出法とその非破壊検査(NDT)分野への応用が含まれている。 0.69
Marko Subašikisanassociateprofe ssorattheDepartment for Electronic Systems and Information Processing, Faculty of Electrical Engineering and Computing, University of Zagreb, and has been working there from 1999. marko subašikisanassociateprofe ssoratthepartment for electronic systems and information processing, faculty of electrical engineering and computing, ザグレブ大学(英語版) は1999年からここで仕事をしている。
訳抜け防止モード: 電気工学・計算機学部電子システム・情報処理部門 ザグレブ大学(university of zagreb)は、1999年から活動している。
0.65
He received his Ph.D. degree from the Faculty of Electrical Engineering andComputing,Univers ityofZagreb,in2007. 2007年に電気工学・計算学部(UniversityofZagreb) で博士号を取得した。 0.66
His field of research is image processing and analysis and neural networks with a particular interest in image segmentation, detection techniques, and deep learning 彼の研究分野は画像処理と分析とニューラルネットワークであり、画像分割、検出技術、ディープラーニングに特に関心がある。 0.73
Marko Budimir received his M.Sc. マルコ・ブディミルはm.scを受けた。 0.34
of physics at University of Zagreb, Faculty of Science in 2000., and his Ph.D. at Ecole Polytechnique Federale de Lausanne in Switzerland in 2006. ザグレブ大学物理学部、2000年に理学部、2006年にスイスのエコール工科大学ローザンヌ校で博士号を取得した。 0.64
He worked at EPFL from 2006. till 2008. 2006年から2008年までEPFLで働いた。 0.72
From 2008. he is working at the Institute of Nuclear Technology (INETEC). 2008年からはINETEC(Institute of Nuclear Technology)に勤務している。 0.77
He coordinated many key projects at INETEC and although he is a key person in a company of industry sector he is still working close to the field of science. 彼はinetecで多くの主要なプロジェクトを調整し、彼は業界部門のキーパーソンであるが、まだ科学の分野に精通している。
訳抜け防止モード: 彼はINETECで多くの主要なプロジェクトを調整した そして彼は産業セクターの 重要人物ですが 彼はまだ科学の分野に 近づきつつある
0.72
Sven Lon arik received his M.Sc. スヴェン・ロン・エイリックはM.S.を受け取った。 0.35
in 1989. He got a Fulbright scholarship and a Ph.D. in 1994. in the University of Cincinnati, USA in the field of image processing and analysis. 1989年。 1994年にFulbrightの奨学金を得て、シンシナティ大学で画像処理と分析の分野で博士号を取得した。 0.73
He is a full professor of electrical engineering and computer science with permanenttenureatFac ultyofElectricalEngi neering and Computing, University of Zagreb, Croatia. クロアチアのザグレブ大学(university of zagreb)で電気工学と計算機科学の教授を務めている。 0.61
His areas of research interest are digital image processing and computer vision. 彼の研究分野はデジタル画像処理とコンピュータビジョンである。 0.75
He was principal investigator on a number of research and development projects in image processing and analysis including applications in medicine, automotive industry, and visual quality inspection. 彼は、医学、自動車産業、視覚品質検査などの画像処理および分析に関する多くの研究および開発プロジェクトの主任研究員であった。 0.78
Posilović et al : Preprint submitted to Elsevier Posilović et al : Elsevierに提出されたプレプリント 0.75
Page 8 of 8 8ページ目。 0.65
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。