論文の概要: Untrained neural network embedded Fourier phase retrieval from few
measurements
- arxiv url: http://arxiv.org/abs/2307.08717v1
- Date: Sun, 16 Jul 2023 16:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 17:59:10.047695
- Title: Untrained neural network embedded Fourier phase retrieval from few
measurements
- Title(参考訳): 少ない測定値からフーリエ位相を組み込んだ未学習ニューラルネットワーク
- Authors: Liyuan Ma and Hongxia Wang and Ningyi Leng and Ziyang Yuan
- Abstract要約: 本稿では、FPRを少ない測定値で解くために、未学習のニューラルネットワーク埋め込みアルゴリズムを提案する。
再生する画像を表すために生成ネットワークを使用し、ネットワーク構造によって定義された空間に画像を閉じ込める。
未学習NNのパラメータ更新に起因した計算コストを削減するため,明示的正規化と暗黙的正規化を適応的に切り離す高速化アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 8.914156789222266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fourier phase retrieval (FPR) is a challenging task widely used in various
applications. It involves recovering an unknown signal from its Fourier
phaseless measurements. FPR with few measurements is important for reducing
time and hardware costs, but it suffers from serious ill-posedness. Recently,
untrained neural networks have offered new approaches by introducing learned
priors to alleviate the ill-posedness without requiring any external data.
However, they may not be ideal for reconstructing fine details in images and
can be computationally expensive. This paper proposes an untrained neural
network (NN) embedded algorithm based on the alternating direction method of
multipliers (ADMM) framework to solve FPR with few measurements. Specifically,
we use a generative network to represent the image to be recovered, which
confines the image to the space defined by the network structure. To improve
the ability to represent high-frequency information, total variation (TV)
regularization is imposed to facilitate the recovery of local structures in the
image. Furthermore, to reduce the computational cost mainly caused by the
parameter updates of the untrained NN, we develop an accelerated algorithm that
adaptively trades off between explicit and implicit regularization.
Experimental results indicate that the proposed algorithm outperforms existing
untrained NN-based algorithms with fewer computational resources and even
performs competitively against trained NN-based algorithms.
- Abstract(参考訳): フーリエ位相検索(FPR)は様々なアプリケーションで広く使われている課題である。
フーリエの無位相測定から未知の信号を復元する。
少ない測定値を持つFPRは、時間とハードウェアコストを削減するために重要であるが、深刻な悪影響を被る。
最近、トレーニングされていないニューラルネットワークは、外部データを必要とせず、不備を緩和するために学習した事前を導入することで、新しいアプローチを提案している。
しかし、画像の細部を再構築するには理想的ではなく、計算コストがかかる。
本稿では,乗算器(ADMM)フレームワークの交互方向法に基づく非学習型ニューラルネットワーク(NN)組み込みアルゴリズムを提案する。
具体的には、回復すべき画像を表すために生成ネットワークを使用し、ネットワーク構造によって定義された空間に画像を閉じ込める。
高周波情報表現能力を向上させるため、画像内の局所構造の復元を容易にするため、全変動(tv)正則化を課す。
さらに,未学習nnのパラメータ更新を主とする計算コストを低減するため,明示的と暗黙的正規化を適応的に切り替える高速化アルゴリズムを開発した。
実験の結果,提案アルゴリズムは計算資源の少ない既存のnnベースのアルゴリズムよりも優れており,nnベースのアルゴリズムとの競合性も高いことがわかった。
関連論文リスト
- PRISTA-Net: Deep Iterative Shrinkage Thresholding Network for Coded
Diffraction Patterns Phase Retrieval [6.982256124089]
位相検索は、計算画像および画像処理における非線型逆問題である。
我々は,1次反復しきい値しきい値アルゴリズム(ISTA)に基づく深層展開ネットワークであるPRISTA-Netを開発した。
非線形変換,しきい値,ステップサイズなど,提案するPRISTA-Netフレームワークのパラメータはすべて,設定されるのではなく,エンドツーエンドで学習される。
論文 参考訳(メタデータ) (2023-09-08T07:37:15Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Efficient Uncertainty Quantification and Reduction for
Over-Parameterized Neural Networks [23.7125322065694]
不確実性定量化(UQ)は、機械学習モデルの信頼性評価と強化に重要である。
統計学的に保証されたスキームを作成し、主に、過剰パラメータ化ニューラルネットワークの不確実性である、エンフェラクタライズし、エンフェレモーブする。
特に,PNC予測器(Procedural-noise-correcting, Procedural-noise-correcting, PNC)に基づくアプローチでは,適切なラベル付きデータセットでトレーニングされたEmphone補助ネットワークのみを用いることで,手続き的不確実性を取り除く。
論文 参考訳(メタデータ) (2023-06-09T05:15:53Z) - A Projection-Based K-space Transformer Network for Undersampled Radial
MRI Reconstruction with Limited Training Subjects [1.5708535232255898]
非カルテシアン軌道は、ネットワークトレーニングの各イテレーションにおいて、カルテシアングリッドに変換される必要がある。
本研究では,限られた被験者から大量のトレーニングデータを生成するための新しいデータ拡張手法を提案する。
実験の結果,最先端のディープニューラルネットワークと比較して,提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-15T00:20:22Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - A computationally efficient reconstruction algorithm for circular
cone-beam computed tomography using shallow neural networks [0.0]
本稿では,ニューラルネットワークFeldkamp-Davis-Kress (NN-FDK)アルゴリズムを提案する。
FDKアルゴリズムに機械学習コンポーネントを追加し、計算効率を維持しながら再構成精度を向上させる。
NN-FDKネットワークのトレーニング時間は、考慮されたディープニューラルネットワークよりも桁違いに低く、再構成精度はわずかに低下している。
論文 参考訳(メタデータ) (2020-10-01T14:10:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。