論文の概要: MetaDIP: Accelerating Deep Image Prior with Meta Learning
- arxiv url: http://arxiv.org/abs/2209.08452v1
- Date: Sun, 18 Sep 2022 02:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:31:39.547855
- Title: MetaDIP: Accelerating Deep Image Prior with Meta Learning
- Title(参考訳): MetaDIP: メタ学習に先立つディープイメージの高速化
- Authors: Kevin Zhang, Mingyang Xie, Maharshi Gor, Yi-Ting Chen, Yvonne Zhou,
Christopher A. Metzler
- Abstract要約: メタラーニングを用いて、DIPベースの再構築を大幅に加速する。
さまざまな逆イメージングタスクにおけるランタイムの10倍の改善を実演する。
- 参考スコア(独自算出の注目度): 15.847098400811188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep image prior (DIP) is a recently proposed technique for solving imaging
inverse problems by fitting the reconstructed images to the output of an
untrained convolutional neural network. Unlike pretrained feedforward neural
networks, the same DIP can generalize to arbitrary inverse problems, from
denoising to phase retrieval, while offering competitive performance at each
task. The central disadvantage of DIP is that, while feedforward neural
networks can reconstruct an image in a single pass, DIP must gradually update
its weights over hundreds to thousands of iterations, at a significant
computational cost. In this work we use meta-learning to massively accelerate
DIP-based reconstructions. By learning a proper initialization for the DIP
weights, we demonstrate a 10x improvement in runtimes across a range of inverse
imaging tasks. Moreover, we demonstrate that a network trained to quickly
reconstruct faces also generalizes to reconstructing natural image patches.
- Abstract(参考訳): 深部画像先行(Deep Image prior, DIP)は, 再構成した画像を非拘束畳み込みニューラルネットワークの出力に合わせることで, 画像逆問題を解決する手法である。
事前学習されたfeedforwardニューラルネットワークとは異なり、同じディップは、同期から位相検索まで任意の逆問題に一般化し、各タスクで競合性能を提供する。
DIPの主な欠点は、フィードフォワードニューラルネットワークが単一のパスでイメージを再構築できるのに対して、DIPはその重みを数百から数千回にわたって、かなりの計算コストで徐々に更新する必要があることである。
この研究では、ディップベースの再構築を大規模に加速するためにメタラーニングを使用します。
ディップウェイトの適切な初期化を学習することにより、様々な逆イメージングタスクにおけるランタイムの10倍の改善を実証する。
さらに,顔の再構築を迅速に行うネットワークが,自然な画像パッチの再構築に有効であることを示す。
関連論文リスト
- Analysis of Deep Image Prior and Exploiting Self-Guidance for Image
Reconstruction [13.277067849874756]
DIPがアンダーサンプドイメージング計測からどのように情報を回収するかを検討する。
ネットワーク重みと入力の両方を同時に最適化する自己駆動型再構築プロセスを導入する。
提案手法は,ネットワーク入力画像と再構成画像の両方の堅牢かつ安定した関節推定を可能にする,新しいデノイザ正規化項を組み込んだものである。
論文 参考訳(メタデータ) (2024-02-06T15:52:23Z) - Deep Generalized Unfolding Networks for Image Restoration [16.943609020362395]
画像復元のためのDeep Generalized Unfolding Network (DGUNet)を提案する。
我々は、勾配推定戦略をPGDアルゴリズムの勾配降下ステップに統合する。
我々の手法は、最先端の性能、解釈可能性、一般化可能性の点で優れている。
論文 参考訳(メタデータ) (2022-04-28T08:39:39Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。