論文の概要: QISTA-Net: DNN Architecture to Solve $\ell_q$-norm Minimization Problem
and Image Compressed Sensing
- arxiv url: http://arxiv.org/abs/2010.11363v1
- Date: Thu, 22 Oct 2020 01:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:24:34.610853
- Title: QISTA-Net: DNN Architecture to Solve $\ell_q$-norm Minimization Problem
and Image Compressed Sensing
- Title(参考訳): QISTA-Net:$\ell_q$-norm最小化問題と画像圧縮センシングを解くDNNアーキテクチャ
- Authors: Gang-Xuan Lin and Shih-Wei Hu and Chun-Shien Lu
- Abstract要約: 我々は,非ell_q$-norm問題と$qin0,1)をネットワーク再構成問題に解釈する。
そこで本研究では,QISTANet-sと呼ばれる学習手法を提案する。
- 参考スコア(独自算出の注目度): 5.822529963339041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we reformulate the non-convex $\ell_q$-norm minimization
problem with $q\in(0,1)$ into a 2-step problem, which consists of one convex
and one non-convex subproblems, and propose a novel iterative algorithm called
QISTA ($\ell_q$-ISTA) to solve the $\left(\ell_q\right)$-problem. By taking
advantage of deep learning in accelerating optimization algorithms, together
with the speedup strategy that using the momentum from all previous layers in
the network, we propose a learning-based method, called QISTA-Net-s, to solve
the sparse signal reconstruction problem. Extensive experimental comparisons
demonstrate that the QISTA-Net-s yield better reconstruction qualities than
state-of-the-art $\ell_1$-norm optimization (plus learning) algorithms even if
the original sparse signal is noisy. On the other hand, based on the network
architecture associated with QISTA, with considering the use of convolution
layers, we proposed the QISTA-Net-n for solving the image CS problem, and the
performance of the reconstruction still outperforms most of the
state-of-the-art natural images reconstruction methods. QISTA-Net-n is designed
in unfolding QISTA and adding the convolutional operator as the dictionary.
This makes QISTA-Net-s interpretable. We provide complete experimental results
that QISTA-Net-s and QISTA-Net-n contribute the better reconstruction
performance than the competing.
- Abstract(参考訳): 本稿では,非凸 $\ell_q$-norm 最小化問題を 1 つの凸と 1 つの非凸部分プロブレムからなる 2 段階問題に再構成し,$\left(\ell_q\right)$-problem を解くために qista (\ell_q$-ista) と呼ばれる新しい反復アルゴリズムを提案する。
最適化アルゴリズムの高速化における深層学習の活用と,ネットワーク内のすべてのレイヤの運動量を利用する高速化戦略を併用して,疎信号再構成問題を解決するための学習手法QISTA-Net-sを提案する。
広範な実験的比較により、qista-net-sは、元のスパース信号がノイズであっても、最先端の$\ell_1$-norm最適化(プラス学習)アルゴリズムよりも優れた再構成品質が得られることが示されている。
一方,畳み込み層の利用を考慮して,qistaに関連するネットワークアーキテクチャに基づき,画像cs問題を解決するためのqista-net-nを提案した。
QISTA-Net-n は QISTA を展開させ、辞書として畳み込み演算子を追加するように設計されている。
これによりQISTA-Netは解釈可能である。
我々は,QISTA-Net-sとQISTA-Net-nが競合相手よりも優れた再構成性能に寄与する,完全な実験結果を提供する。
関連論文リスト
- On the Convergence and Sample Complexity Analysis of Deep Q-Networks
with $\epsilon$-Greedy Exploration [86.71396285956044]
本稿では,深層強化学習における$varepsilon$-greedyによるDQN(Deep Q-Network)の理論的理解を提供する。
論文 参考訳(メタデータ) (2023-10-24T20:37:02Z) - Soft Convex Quantization: Revisiting Vector Quantization with Convex
Optimization [40.1651740183975]
ベクトル量子化(VQ)の直接代用として,ソフト凸量子化(SCQ)を提案する。
SCQは微分凸最適化(DCO)層のように機能する。
CIFAR-10, GTSRB, LSUNデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2023-10-04T17:45:14Z) - On the Global Convergence of Fitted Q-Iteration with Two-layer Neural
Network Parametrization [33.12181620473604]
本稿では,2層型ReLUニューラルネットワークを用いたQ-Iterationについて検討し,アルゴリズムの複雑さの保証を求める。
このアプローチは,オーダー最適化である $tildemathcalO (1/epsilon2)$ のサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2022-11-14T19:00:24Z) - Hybrid ISTA: Unfolding ISTA With Convergence Guarantees Using Free-Form
Deep Neural Networks [50.193061099112626]
学習可能なパラメータを持つディープニューラルネットワーク(DNN)として反復アルゴリズムを展開させることで、線形逆問題を解決することを約束している。
既存のISTAベースのアンフォールドアルゴリズムは、収束を保証するために部分重結合構造で繰り返し更新するネットワークアーキテクチャを制限する。
本論文は,ISTAに基づく非折り畳みアルゴリズムにおける自由形式DNNを実現するための収束証明可能なフレームワークを初めて提供するものである。
論文 参考訳(メタデータ) (2022-04-25T13:17:57Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - An Information Theory-inspired Strategy for Automatic Network Pruning [88.51235160841377]
深層畳み込みニューラルネットワークは、リソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、人的努力と禁忌な計算資源を必要とする。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
論文 参考訳(メタデータ) (2021-08-19T07:03:22Z) - Classically optimal variational quantum algorithms [0.0]
変分量子アルゴリズム(VQA)のようなハイブリッド量子古典アルゴリズムは、NISQコンピュータ上での実装に適している。
このレターでは、VQAの暗黙的なステップを拡張します。古典的なプリ計算サブルーチンは、古典的なアルゴリズムを非自明に使用して、問題インスタンス固有の変動量子回路を単純化、変換、特定することができます。
論文 参考訳(メタデータ) (2021-03-31T13:33:38Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - Learnable Descent Algorithm for Nonsmooth Nonconvex Image Reconstruction [4.2476585678737395]
非滑らかな非画像再構成問題を解決するための一般学習ベースのフレームワークを提案する。
提案手法は,画像における画像問題における効率のよい収束状態であることを示す。
論文 参考訳(メタデータ) (2020-07-22T07:59:07Z) - When to Use Convolutional Neural Networks for Inverse Problems [40.60063929073102]
本稿では,畳み込みニューラルネットワークを,畳み込みスパース符号問題に対する近似解とみなすことができることを示す。
ある種の逆問題に対して、CNN近似は性能の低下につながると論じる。
具体的には、JPEGアーチファクトの低減と非剛性軌道再構成をCNNの逆問題として同定する。
論文 参考訳(メタデータ) (2020-03-30T21:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。