論文の概要: Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation
- arxiv url: http://arxiv.org/abs/2005.03991v1
- Date: Thu, 7 May 2020 15:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:30:46.193949
- Title: Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation
- Title(参考訳): 非トレーニングニューラルネットワークによる圧縮センシング:勾配降下が最も滑らかな近似を求める
- Authors: Reinhard Heckel and Mahdi Soltanolkotabi
- Abstract要約: 訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
- 参考スコア(独自算出の注目度): 60.80172153614544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Un-trained convolutional neural networks have emerged as highly successful
tools for image recovery and restoration. They are capable of solving standard
inverse problems such as denoising and compressive sensing with excellent
results by simply fitting a neural network model to measurements from a single
image or signal without the need for any additional training data. For some
applications, this critically requires additional regularization in the form of
early stopping the optimization. For signal recovery from a few measurements,
however, un-trained convolutional networks have an intriguing self-regularizing
property: Even though the network can perfectly fit any image, the network
recovers a natural image from few measurements when trained with gradient
descent until convergence. In this paper, we provide numerical evidence for
this property and study it theoretically. We show that---without any further
regularization---an un-trained convolutional neural network can approximately
reconstruct signals and images that are sufficiently structured, from a near
minimal number of random measurements.
- Abstract(参考訳): 訓練されていない畳み込みニューラルネットワークは、画像の復元と修復に非常に成功したツールとして出現した。
彼らは、ニューラルネットワークモデルを単一の画像や信号から測定に適合させることで、追加のトレーニングデータを必要とせずに、ノイズ除去や圧縮センシングなどの標準的な逆問題を優れた結果で解決することができる。
一部のアプリケーションでは、最適化の早期停止という形で追加の正規化が必要となる。
ネットワークは任意の画像に完全に適合するが、ネットワークは勾配降下から収束まで訓練された時に、少数の測定値から自然なイメージを復元する。
本稿では,この性質の数値的証拠を提供し,理論的に研究する。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成することができる。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Untrained neural network embedded Fourier phase retrieval from few
measurements [8.914156789222266]
本稿では、FPRを少ない測定値で解くために、未学習のニューラルネットワーク埋め込みアルゴリズムを提案する。
再生する画像を表すために生成ネットワークを使用し、ネットワーク構造によって定義された空間に画像を閉じ込める。
未学習NNのパラメータ更新に起因した計算コストを削減するため,明示的正規化と暗黙的正規化を適応的に切り離す高速化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-07-16T16:23:50Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Self-supervised Neural Networks for Spectral Snapshot Compressive
Imaging [15.616674529295366]
我々は、訓練されていないニューラルネットワークを用いて、スナップショット圧縮画像(SCI)の再構成問題を解決することを検討する。
本稿では,DIP(Deep Image Priors)やディープデコーダ(Deep Decoder)といった未学習のニューラルネットワークにヒントを得て,DIPをプラグアンドプレイシステムに統合して,スペクトルSCI再構成のための自己教師型ネットワークを構築する。
論文 参考訳(メタデータ) (2021-08-28T14:17:38Z) - Accelerated MRI with Un-trained Neural Networks [29.346778609548995]
トレーニングなしニューラルネットワークを用いた高速化MRIにおける再構成問題に対処する。
本稿では,Deep Decoderのバリエーションに基づいて,高度に最適化された未学習リカバリ手法を提案する。
トレーニングされていないアルゴリズムはベースライントレーニングされたニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
論文 参考訳(メタデータ) (2020-07-06T00:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。