論文の概要: Sparse aNETT for Solving Inverse Problems with Deep Learning
- arxiv url: http://arxiv.org/abs/2004.09565v1
- Date: Mon, 20 Apr 2020 18:43:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:21:45.726255
- Title: Sparse aNETT for Solving Inverse Problems with Deep Learning
- Title(参考訳): Sparse aNETTによるディープラーニングによる逆問題の解法
- Authors: Daniel Obmann, Linh Nguyen, Johannes Schwab, Markus Haltmeier
- Abstract要約: 逆問題を解決するためのスパース再構成フレームワーク(aNETT)を提案する。
非線形スペーシング変換として機能するオートエンコーダネットワーク$D circ E$をトレーニングする。
スパースCTでは数値的な結果が得られた。
- 参考スコア(独自算出の注目度): 2.5234156040689237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a sparse reconstruction framework (aNETT) for solving inverse
problems. Opposed to existing sparse reconstruction techniques that are based
on linear sparsifying transforms, we train an autoencoder network $D \circ E$
with $E$ acting as a nonlinear sparsifying transform and minimize a Tikhonov
functional with learned regularizer formed by the $\ell^q$-norm of the encoder
coefficients and a penalty for the distance to the data manifold. We propose a
strategy for training an autoencoder based on a sample set of the underlying
image class such that the autoencoder is independent of the forward operator
and is subsequently adapted to the specific forward model. Numerical results
are presented for sparse view CT, which clearly demonstrate the feasibility,
robustness and the improved generalization capability and stability of aNETT
over post-processing networks.
- Abstract(参考訳): 逆問題を解決するためのスパース再構成フレームワーク(aNETT)を提案する。
線形スパース化変換に基づく既存のスパース再構成技術とは対照的に、非線形スパース化変換として作用するオートエンコーダネットワーク $d \circ e$ を訓練し、エンコーダ係数の$\ell^q$-norm とデータ多様体への距離のペナルティによって形成される学習正規化子によるティホノフ関数を最小化する。
本稿では,オートエンコーダがフォワード演算子とは独立であり,その後,特定のフォワードモデルに適応するように,基礎となるイメージクラスのサンプルセットに基づいてオートエンコーダを訓練する戦略を提案する。
スパースビューCTでは,処理後ネットワーク上でのANETTの実現可能性,堅牢性,一般化能力の向上,安定性が明らかに示された。
関連論文リスト
- MsDC-DEQ-Net: Deep Equilibrium Model (DEQ) with Multi-scale Dilated
Convolution for Image Compressive Sensing (CS) [0.0]
圧縮センシング(CS)は、従来のサンプリング法よりも少ない測定値を用いてスパース信号の回復を可能にする技術である。
我々はCSを用いた自然画像再構成のための解釈可能かつ簡潔なニューラルネットワークモデルを構築した。
MsDC-DEQ-Netと呼ばれるこのモデルは、最先端のネットワークベースの手法と比較して、競争力のある性能を示す。
論文 参考訳(メタデータ) (2024-01-05T16:25:58Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Iterative Reweighted Least Squares Networks With Convergence Guarantees
for Solving Inverse Imaging Problems [12.487990897680422]
解析に基づく画像正規化における画像再構成タスクの新しい最適化手法を提案する。
そのような正規化子は $ell_pp$-vector および $mathcalS_pp$ Schatten-matrix 準ノルムの重み付き拡張に対応するポテンシャル関数を用いてパラメータ化する。
提案する最小化戦略の収束保証により,メモリ効率の高い暗黙バックプロパゲーション方式により,そのような最適化を成功させることができることを示す。
論文 参考訳(メタデータ) (2023-08-10T17:59:46Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Latent Code-Based Fusion: A Volterra Neural Network Approach [21.25021807184103]
最近導入されたVolterra Neural Networks(VNN)を用いた深層構造エンコーダを提案する。
提案手法は,cnnベースのオートエンコーダに対して,より頑健な分類性能を持つサンプル複雑性を示す。
論文 参考訳(メタデータ) (2021-04-10T18:29:01Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。