論文の概要、ライセンス

# (参考訳) 単インスタンス深部生成プリミティブを用いた位相検索 [全文訳有]

Phase Retrieval using Single-Instance Deep Generative Prior ( http://arxiv.org/abs/2106.04812v1 )

ライセンス: CC BY 4.0
Kshitij Tayal, Raunak Manekar, Zhong Zhuang, David Yang, Vipin Kumar, Felix Hofmann, Ju Sun(参考訳) 位相探索のための深層学習手法はいくつか存在するが、そのほとんどは正確な支援情報なしで現実的なデータで失敗している。 複素数値結晶データによく作用する単一インスタンスの深部生成先行に基づく新しい手法を提案する。

Several deep learning methods for phase retrieval exist, but most of them fail on realistic data without precise support information. We propose a novel method based on single-instance deep generative prior that works well on complex-valued crystal data.
公開日: Wed, 9 Jun 2021 05:11:33 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Phase Retrieval using Single-Instance Deep シングルインスタンスディープを用いた位相検索 0.55
Generative Prior Kshitij Tayal*1 生成前 Kshitij Tayal*1 0.75
Raunak Manekar1 Raunak Manekar1 0.88
Zhong Zhuang 2 Zhong Zhuang 2 0.85
David Yang 3 Vipin Kumar 1 デビッド・ヤン3 ヴィピン・クマール1世 0.48
Felix Hofmann 3 フェリックス・ホフマン3 0.62
Ju Sun *1 1Department of Computer Science and Engineering, University of Minnesota, Twin Cities Ju Sun *1 第1部 ミネソタ大学 ツインシティー校 コンピュータサイエンス・エンジニアリング学部 0.75
2 Department of Electrical and Computer Engineering, University of Minnesota, Twin Cities, USA ミネソタ大学 ツインシティズ校 電気・コンピュータ工学科 第2科 0.48
3 Department of Engineering Science, University of Oxford, UK オックスフォード大学工学部3科 0.36
*{tayal, jusun} @umn.edu ※{tayal, jusun} @umn.edu 0.81
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] G L . 9 ] G L。 0.81
s c [ 1 v 2 1 8 4 0 sc [ 1 v 2 1 8 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract: Several deep learning methods for phase retrieval exist, but most of them fail on realistic data without precise support information. 要約: 位相探索のための深層学習手法はいくつか存在するが、そのほとんどは正確な支援情報なしで現実的なデータで失敗する。 0.66
We propose a novel method based on single-instance deep generative prior that works well on complex-valued crystal data. 複素数値結晶データによく作用する単一インスタンスの深部生成先行に基づく新しい手法を提案する。 0.72
© 2021 The Author(s) 2021年 著述家。 0.35
Introduction 1. Phase retrieval (PR) is a classical nonlinear inverse problem in computational imaging. はじめに 1. 位相探索 (PR) は計算画像における古典的非線形逆問題である。 0.71
The problem concerns recovering a complex signal XXX ∈ Cn×n from the oversampled Fourier magnitudes YYY = |F (XXX)|2 ∈ Rm×m, where m ≥ 2n− 1 is necessary for recoverability. 問題は、過剰にサンプリングされたフーリエ等級 yyy = |f (xxx)|2 ∈ rm×m から複素信号 xxx ∈ cn×n を回復することである。
訳抜け防止モード: 問題は、オーバーサンプリングされたフーリエ等級 YYY = |F ( XXX)|2 ∈ Rm×m から複素信号 XXX ∈ Cn×n を復元することである。 回復には m ≥ 2n− 1 が必要である。
0.73
The problem has three intrinsic symmetries: any of 1) 2D translation of the nonzero content of XXX, 2) 2D conjugate flipping of XXX, and 3) global phase transfer to XXX (XXXeiθ for any θ ∈ [−π,π)) and their compositions will leave the observation YYY unchanged. 1) xxx の非零成分の任意の 2d 変換、2) xxx の 2d 共役反転、3) xxx への大域的位相移動(任意の θ ∈ [−π,π)、そしてそれらの合成は観測のyyyyを不変に残す。
訳抜け防止モード: 問題は3つの本質的対称性を持つ: 1 ) xxx の 0 でない内容の 2d 変換のどれか。 2 ) θ ∈ [ −π, π ) に対する xxx への大域的位相転移(xxxeiθ) そして、それらの組成は観測結果のyyyをそのまま残します。
0.79
When XXX is real-valued and positive, numerous classical methods such as hybrid input-output (HIO, [1]) can take advantage of the realness and/or positivity constraints to recover XXX in practice. XXX が実数値で正のとき、ハイブリッド入出力 (HIO, [1]) のような多くの古典的手法は現実性および/または正の制約を利用して XXX を実際に回収することができる。 0.70
However, when XXX is complexvalued—which pertains to most real applications, these constraints are apparently not applicable. しかし、xxxが実際のほとんどのアプリケーションに関連する複合値である場合、これらの制約は適用されない。 0.61
In such scenarios, knowing the precise support of XXX proves crucial for empirical successes [2]. そのようなシナリオでは、xxx の正確なサポートを知ることは、経験的成功に不可欠である [2] である。
訳抜け防止モード: そのような場合。 XXXの正確なサポートを知る 経験的な成功[2]を証明します。
0.68
Practical iterative algorithms for PR typically start with a loose support estimated from the autocorrelation (as F −1(|F (XXX)|2) leads to the autocorrelation XXX (cid:63)XXX, from which one can obtain a crude estimate of the support of XXX—less reliable when YYY is affected by noise), and then gradually refine the support using thresholding (e g , the popular shrinkwrap heuristic [2]) as the iteration proceeds. 実用的なprの反復アルゴリズムは、通常、自己相関から推定されるゆるい支持(f−1(|f(xxx)|2)から始まり、xxx(cid:63)xxx は、xxx の支持の粗い推定を得ることができ(yyy がノイズの影響を受けると信頼できない)、その後徐々にしきい値(例えば、一般的なシュリンクラップヒューリスティック[2])を用いて改良される。 0.68
But the final recovery quality is often sensitive to the parameter setting in support refinement. しかし、最終的な回復品質は、しばしばサポートリファインメントのパラメータ設定に敏感である。 0.77
Recently, two families of deep learning (DL) methods have been proposed for PR. 近年,2種類の深層学習法 (DL) が提案されている。 0.67
They either directly learn the inverse mapping parametrized by deep neural networks (DNNs) based on an extensive training set, or refine the results from classical methods by integrating DL modules with classical iterative algorithms. 彼らは広範囲のトレーニングセットに基づいてディープニューラルネットワーク(DNN)によってパラメータ化された逆マッピングを直接学習するか、DLモジュールと古典的な反復アルゴリズムを統合することによって古典的な手法から結果を洗練するかのいずれかである。 0.63
But as we discussed in our prior work [3, 4], most of these methods are only evaluated on real-valued natural image datasets that are distant from PR applications and also do not reflect the essential difficulty of PR. しかし,本稿で論じているように,これらの手法のほとんどは,PRアプリケーションから離れた,PRの本質的な難しさを反映していない実数値の自然画像データセット上でのみ評価されている。 0.70
Here, we focus on complexvalued PR in real applications. ここでは、実アプリケーションにおける複素数値PRに焦点を当てる。 0.55
We consider the single-instance setting for PR. PRの単一インスタンス設定について検討する。 0.58
The most natural formulation used is probably the least squares 最も自然な定式化はおそらく最小二乗である 0.68
min XXX∈Cn×n min xxxcn×n である。 0.40
(cid:107)YYY −|F (XXX)|2(cid:107)2 F . (cid:107)YYY−|F(XXX)|2(cid:107)2F。 0.69
(1) Empirically, this almost always fails to recover anything meaningful on even simple test cases, probably due to the prevalence of bad local minimizers. (1) 実証的には、これはほとんど常に単純なテストケースでも意味のあるものを取り戻すのに失敗します。
訳抜け防止モード: (1) 経験上 これは常に失敗し 簡単なテストケースでも、おそらく悪質な局所的最小化要因が原因で、意味のあるものを回収する。
0.73
Here, we propose a simple modification to make it work: parameterizing XXX using a deep generative prior, i.e., replacing XXX by Gθ (zzz), where Gθ is a trainable DNN parameterized by θ, and zzz is a fixed seed vector. 本稿では,xxx のパラメータ化を,xxx を gθ (zzz) に置き換え,gθ を θ でパラメータ化し,zzz を固定シードベクトルとする,簡単な修正を提案する。
訳抜け防止モード: 本稿では,xxx を深層生成前処理を用いてパラメータ化する手法を提案する。 すなわち、xxx を gθ ( zzz ) に置き換え、gθ は θ でパラメータ化された訓練可能な dnn である。 zzzは固定種ベクターです
0.76
This leads to our main formulation for PR: これはprの主な定式化につながります 0.61
(cid:107)YYY −|F ◦ Gθ (zzz)|2(cid:107)2 F . (cid:107)YYY−|F > Gθ(zzz)|2(cid:107)2F。 0.67
min θθθ (2) min θθθ (2) 0.85
Recently, deep generative priors of the above form Gθ (zzz) have been popularly used to solve inverse problems in computational imaging and beyond [5]. 近年,gθ (zzz) の深部生成前駆は,計算画像の逆問題や [5] 以上の問題を解くために広く用いられている。 0.79
There are two major variants: 1) Gθ as a generator is pretrained on a large training set using deep generative models, e g , GANs, and zzz is trainable. 1) ジェネレータとしてのGθは、深層生成モデルを用いて大規模なトレーニングセット上で事前訓練され、例えば、g、GAN、zzzは訓練可能である。 0.68
We call this variant multipleinstance deep generative prior (MIDGP). この変種をmultipleinstance deep generative prior (midgp)と呼ぶ。 0.74
The training set needs to come from the same domain as the object to be recovered; 2) Gθ is trainable and zzz is either fixed or trainable. トレーニングセットは、リカバリ対象と同じドメインから取得する必要がある。 2) Gθは、トレーニング可能であり、zzzは、固定またはトレーニング可能である。 0.68
We call this variant single-instance deep generative prior (SIDGP), also referred as the untrained DNN prior. この変種をsidgp(single-instanc e deep generative prior)と呼び、未訓練のdnn priorとも呼ばれる。 0.68
Deep image prior [6] and deep decoder [7] are two notable models of SIDGP, and they only differ in the choice of architecture for G. Here, we take the SIDGP approach, as it does not need a training set, which may be expensive to collect for certain applications of PR. 深部画像先行 [6] と深部デコーダ [7) は,SIDGP の2つの注目すべきモデルであり,G のアーキテクチャ選択のみが異なる。
訳抜け防止モード: ディープイメージ先行 [6 ] とディープデコーダ [7 ] はSIDGPの2つの注目すべきモデルである。 そしてそれらは、Gのためのアーキテクチャの選択においてのみ異なる。 SIDGPのアプローチは トレーニングセットは必要ないが、PRの特定の応用のために収集するのに費用がかかる可能性がある。
0.73
英語(論文から抽出)日本語訳スコア
SIDGP has been proposed to solve several variants of PR, including Gaussian PR [8], Fourier holography [9], phase microscopy [10]. SIDGPはガウスPR[8],フーリエホログラフィ[9],位相顕微鏡[10]など,いくつかのPRの変種を解決するために提案されている。 0.73
But all these variants are well known to simplify, if not significantly, PR, and none of the existing methods working for them succeeds on PR. しかし、これらすべての変種はPRをシンプルにすることがよく知られており、PRで機能する既存のメソッドはPRで成功しない。 0.63
2. Experimental Results We test our method on several real-valued toy images and simulated complex-valued crystal data. 2. 実験結果より, 実数値玩具画像と複合結晶データを用いた実験を行った。 0.81
Testing on the crystal data is inspired by the Bragg CDI application for material study [11]. 結晶データの試験はBragg CDIの材料研究への応用 [11] にインスパイアされている。 0.85
The data is generated by first creating 2D convex and concave shapes based on random scattering points in a 110× 110 grid on a 128× 128 background. データは、128×128の背景上の110×110格子のランダム散乱点に基づいて、まず2次元凸形状と凹形状を生成する。 0.75
The complex magnitudes are uniformly 1, and the complex phases are determined by projecting the simulated 2D displacement fields (due to crystal defects) to the corresponding momentum transfer vectors for each reflection. 複素等級は一様であり、各反射に対して(結晶欠陥による)シミュレーションされた2次元変位場を対応する運動量移動ベクトルに投影して複素位相を決定する。 0.83
As shown in Fig 1, we do not assume the knowledge of the precise support, and hence the objects have translation 図1に示すように、我々は正確なサポートの知識を想定していません。
訳抜け防止モード: 図1に示すように 我々は正確な支援の知識を想定していない。 対象物は翻訳され
0.80
Fig. 1. Visualization of recovery results on (left) real-valued random toy images and (right) complexvalued simulated crystal data. フィギュア。 1. 実数値ランダムトイ画像と(右)複素数値シミュレートされた結晶データによる回収結果の可視化 0.67
For each of them, the first row is the groundtruth, and second row is the recovered result by HIO, and the third row by our method. 各行について,第1行は基幹,第2行はヒオによる回収結果,第3行は本手法による回収結果である。 0.67
freedom on all test images. 全てのテスト画像の 自由です 0.79
In all cases, our method produces good visual recovery results, while HIO, a representative classical algorithm for PR, leads to much worse recovery on the real-valued toy images, and completely fails on the complex-valued crystal data. いずれの場合も,本手法は,PRの代表的な古典的アルゴリズムであるHIOは,実数値の玩具画像の回復をはるかに悪くし,複雑な結晶データに完全に失敗する。 0.71
We have used the plain version of HIO. HIOのプレーンバージョンを使用しました。 0.65
Although incorporating support refinement strategies such as shrinkwrap will likely improve the results of HIO, it is amazing that our method based on SIDGP does not need any special handling of the support and works reasonably well. shrinkwrapのようなサポート改善戦略を組み込むことでhioの結果が改善される可能性は高いが、sidgpに基づいたこの手法がサポートの特別な処理を必要とせず、合理的に動作することは驚くべきことだ。
訳抜け防止モード: 縮小ラップのようなサポート強化戦略を取り入れることで、HIOの結果が向上する可能性が高い。 驚くべきことに SIDGPに基づく我々の手法はサポートの特別な処理を一切必要とせず、合理的に機能する。
0.64
References 1. J. R. Fienup, “Phase retrieval algorithms: a comparison,” Applied optics, vol. 参考文献 1. J.R. Fienup, “Phase search algorithm: a comparison”, Applied optics, vol。 0.77
21, no. 15, pp. 21だ 15, pp。 0.60
2758–2769, 1982. 2758–2769, 1982. 0.84
2. S. Marchesini, H. He, H. N. Chapman, S. P. Hau-Riege, A. Noy, M. R. Howells, U. Weierstall, and J. C. Spence, “X-ray 2. S. Marchesini, H. He, H. N. Chapman, S. P. Hau-Riege, A. Noy, M. R. Howells, U. Weierstall, J. C. Spence, “X線” 0.81
image reconstruction from a diffraction pattern alone,” Physical Review B, vol. image reconstruction from a diffraction pattern alone” physical review b, vol。 0.71
68, no. 14, p. 140101, 2003. 68歳。 14p.140101、2003年。 0.63
3. R. Manekar, Z. Zhuang, K. Tayal, V. Kumar, and J. 3. R. Manekar, Z. Zhuang, K. Tayal, V. Kumar, J。 0.88
Sun., “Deep learning initialized phase retrieval,” in NeurIPS 2020 Sun. “Deep Learning initialized phase search” in NeurIPS 2020 0.74
Workshop on Deep Learning and Inverse Problems, 2020. 深層学習と逆問題に関するワークショップ、2020年。 0.74
4. K. Tayal, C.-H. Lai, R. Manekar, Z. Zhuang, V. Kumar, and J. 4. K. Tayal, C.-H. Lai, R. Manekar, Z. Zhuang, V. Kumar, J。 0.84
Sun., “Unlocking inverse problems using deep learning: 深層学習を用いた逆問題解法 0.44
Breaking symmetries in phase retrieval,” in NeurIPS 2020 Workshop on Deep Learning and Inverse Problems, 2020. とNeurIPS 2020 Workshop on Deep Learning and Inverse Problems, 2020に記載されている。
訳抜け防止モード: 深層学習に関するneurips 2020ワークショップ"breaking symmetries in phase retrieval, ” 逆問題、2020年。
0.74
5. G. Ongie, A. Jalal, C. A. Metzler, R. G. Baraniuk, A. G. Dimakis, and R. Willett, “Deep learning techniques for inverse 5. G. Ongie, A. Jalal, C. A. Metzler, R. G. Baraniuk, A. G. Dimakis, R. Willett, “Deep Learning Technique for inverse” 0.86
problems in imaging,” IEEE Journal on Selected Areas in Information Theory, vol. とieee journal on selected areas in information theory, vol. は述べている。 0.59
1, no. 1, pp. 39–56, 2020. 1・・ 1、p。 39–56, 2020. 0.65
6. D. Ulyanov, A. Vedaldi, and V. Lempitsky, “Deep image prior,” in Proceedings of the IEEE conference on computer 6. D. Ulyanov, A. Vedaldi, V. Lempitsky, “Deep image prior” in Proceedings of the IEEE conference on computer 0.85
vision and pattern recognition, 2018, pp. 視覚とパターン認識, 2018, pp。 0.68
9446–9454. 9446–9454. 0.71
7. R. Heckel and P. Hand, “Deep decoder: Concise image representations from untrained non-convolutional networks,” 7. R. Heckel, P. Hand, “Deep Decoder: Concise image representations from untrained non-convolutional network” 0.89
arXiv preprint arXiv:1810.03982, 2018. arXiv preprint arXiv:1810.03982, 2018 0.80
8. G. Jagatap and C. Hegde, “Algorithmic guarantees for inverse imaging with untrained network priors,” arXiv preprint 8. G. Jagatap と C. Hegde, “Algorithmic guarantees for inverse imaging with untrained network priors” arXiv preprint 0.87
arXiv:1906.08763, 2019. arXiv:1906.08763, 2019 0.71
9. H. Lawrence, D. Bramherzig, H. Li, M. Eickenberg, and M. Gabri´e, “Phase retrieval with holography and untrained 9. H. Lawrence, D. Bramherzig, H. Li, M. Eickenberg, M. Gabri ́e, “Phase retrieve with holography and untrained” 0.87
priors: Tackling the challenges of low-photon nanoscale imaging,” arXiv preprint arXiv:2012.07386, 2020. とarXiv preprint arXiv:2012.07386, 2020。 0.38
10. E. Bostan, R. Heckel, M. Chen, M. Kellman, and L. Waller, “Deep phase decoder: self-calibrating phase microscopy 10. E. Bostan, R. Heckel, M. Chen, M. Kellman, L. Waller, “Deep phase decoder: self-calibrating phase microscopy” 0.87
with an untrained deep neural network,” Optica, vol. 訓練されていないディープニューラルネットワークで”、とoptiicaは言う。 0.54
7, no. 6, pp. 7位はノー。 6, pp。 0.75
559–562, 2020. 559–562, 2020. 0.84
11. I. K. Robinson, I. 11. I.K.ロビンソン。 0.75
A. Vartanyants, G. Williams, M. Pfeifer, and J. Pitney, “Reconstruction of the shapes of gold nanocrys- A. Vartanyants, G. Williams, M. Pfeifer, J. Pitney, “金ナノ結晶の形状の再構築” 0.83
tals using coherent x-ray diffraction,” Physical review letters, vol. tals using coherent x-ray diffraction”. physical review letters, vol. (英語) 0.76
87, no. 19, p. 195505, 2001. 87だ 第19巻195505年、2001年。 0.54
     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。