論文の概要: DeepInit Phase Retrieval
- arxiv url: http://arxiv.org/abs/2007.08214v1
- Date: Thu, 16 Jul 2020 09:39:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:08:45.618096
- Title: DeepInit Phase Retrieval
- Title(参考訳): DeepInit Phase Retrieval
- Authors: Martin Reiche and Peter Jung
- Abstract要約: 本稿では,データ深層生成モデルを用いて位相探索問題の解法を提案する。
我々のハイブリッドアプローチは,低サンプリングレートで非常に高い再構成結果が得られることを示す。
- 参考スコア(独自算出の注目度): 10.385009647156407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper shows how data-driven deep generative models can be utilized to
solve challenging phase retrieval problems, in which one wants to reconstruct a
signal from only few intensity measurements. Classical iterative algorithms are
known to work well if initialized close to the optimum but otherwise suffer
from non-convexity and often get stuck in local minima. We therefore propose
DeepInit Phase Retrieval, which uses regularized gradient descent under a deep
generative data prior to compute a trained initialization for a fast classical
algorithm (e.g. the randomized Kaczmarz method). We empirically show that our
hybrid approach is able to deliver very high reconstruction results at low
sampling rates even when there is significant generator model error.
Conceptually, learned initializations may therefore help to overcome the
non-convexity of the problem by starting classical descent steps closer to the
global optimum. Also, our idea demonstrates superior runtime performance over
conventional gradient-based reconstruction methods. We evaluate our method for
generic measurements and show empirically that it is also applicable to
diffraction-type measurement models which are found in terahertz single-pixel
phase retrieval.
- Abstract(参考訳): 本稿では,データ駆動型深層生成モデルを用いて,少数のインテンシティ測定値から信号を再構成したい場合の難解な位相探索問題の解法を示す。
古典的反復アルゴリズムは、最適に近く初期化されていればうまく機能することが知られているが、そうでなければ非凸性に悩まされ、しばしば局所ミニマで立ち往生する。
そこで我々は,高速古典アルゴリズム(例えばランダム化kaczmarz法)の学習初期化計算に先立って,深部生成データに基づく正規化勾配降下を用いたディープイット位相検索を提案する。
提案手法は, 発電機モデル誤差が大きい場合でも, 低サンプリングレートで非常に高い再構成結果が得られることを実証的に示す。
概念的には、学習した初期化は、古典的な降下段階を大域的最適に近づけることで、問題の非凸性を克服するのに役立つ。
また,従来の勾配型再構成法よりも優れたランタイム性能を示す。
本手法を総括的に評価し,テラヘルツ単画素位相検索法で用いられる回折型測定モデルにも適用できることを実証的に示した。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - Using Intermediate Forward Iterates for Intermediate Generator
Optimization [14.987013151525368]
中間ジェネレータ最適化は、生成タスクのための任意の標準オートエンコーダパイプラインに組み込むことができる。
IGOの2つの密集予測タスク(viz.)、画像外挿、点雲デノイング(denoising)に対する応用を示す。
論文 参考訳(メタデータ) (2023-02-05T08:46:15Z) - Restarts subject to approximate sharpness: A parameter-free and optimal scheme for first-order methods [0.6554326244334866]
シャープネス(Sharpness)は、目的関数の準最適性によってミニマからの距離を束縛する連続最適化における仮定である。
シャープネスは、通常不明な問題固有の定数を伴い、再起動スキームは通常収束率を減少させる。
対象関数の誤差に未知の定数摂動を組み込んだシャープネスの一般化である近似シャープネスの仮定を考察する。
論文 参考訳(メタデータ) (2023-01-05T19:01:41Z) - An adjoint-free algorithm for conditional nonlinear optimal perturbations (CNOPs) via sampling [5.758073912084367]
我々は、条件付き非線形最適摂動(CNOP)を得るための最先端統計機械学習技術に基づくサンプリングアルゴリズムを提案する。
サンプリング手法は、目的関数値(ゼロ次情報)への勾配を直接減少させる
本研究では, 空間パターン, 目的値, 定量化計算時間, 非線形誤差成長を用いて得られたCNOPを実証する。
論文 参考訳(メタデータ) (2022-08-01T16:07:22Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Robust Regression Revisited: Acceleration and Improved Estimation Rates [25.54653340884806]
強い汚染モデルの下で, 統計的回帰問題に対する高速アルゴリズムについて検討する。
目的は、逆向きに破損したサンプルを与えられた一般化線形モデル(GLM)を概ね最適化することである。
実行時や推定保証が改善された頑健な回帰問題に対して,ほぼ直線的な時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:21:56Z) - Data-driven Weight Initialization with Sylvester Solvers [72.11163104763071]
本稿では,ディープニューラルネットワークのパラメータを初期化するためのデータ駆動方式を提案する。
提案手法は,特にショットや微調整の設定において有効であることを示す。
論文 参考訳(メタデータ) (2021-05-02T07:33:16Z) - Unfolded Algorithms for Deep Phase Retrieval [16.14838937433809]
Unfolded Phase Retrieval (UPR) と呼ばれるハイブリッドモデルベースのデータ駆動型ディープアーキテクチャを提案する。
提案手法は,定評のあるモデルベースアルゴリズムの汎用性と解釈性が有効である。
センシングマトリクスと信号処理アルゴリズムの合同設計を考察し,そのプロセスにおける深い展開手法を応用した。
論文 参考訳(メタデータ) (2020-12-21T03:46:17Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。