論文の概要: DECONET: an Unfolding Network for Analysis-based Compressed Sensing with
Generalization Error Bounds
- arxiv url: http://arxiv.org/abs/2205.07050v6
- Date: Wed, 26 Apr 2023 10:22:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 18:34:03.389903
- Title: DECONET: an Unfolding Network for Analysis-based Compressed Sensing with
Generalization Error Bounds
- Title(参考訳): deconet:一般化誤差境界を持つ解析に基づく圧縮センシングのための展開ネットワーク
- Authors: Vicky Kouni, Yannis Panagakis
- Abstract要約: 解析スパーシティーに基づく圧縮センシングのための新しい深部展開ネットワークを提案する。
提案するネットワークデコードネットワーク(DECONET)は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダを共同で学習する。
- 参考スコア(独自算出の注目度): 27.53377180094267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new deep unfolding network for analysis-sparsity-based
Compressed Sensing. The proposed network coined Decoding Network (DECONET)
jointly learns a decoder that reconstructs vectors from their incomplete, noisy
measurements and a redundant sparsifying analysis operator, which is shared
across the layers of DECONET. Moreover, we formulate the hypothesis class of
DECONET and estimate its associated Rademacher complexity. Then, we use this
estimate to deliver meaningful upper bounds for the generalization error of
DECONET. Finally, the validity of our theoretical results is assessed and
comparisons to state-of-the-art unfolding networks are made, on both synthetic
and real-world datasets. Experimental results indicate that our proposed
network outperforms the baselines, consistently for all datasets, and its
behaviour complies with our theoretical findings.
- Abstract(参考訳): 解析スパーシティーに基づく圧縮センシングのための新しい深部展開ネットワークを提案する。
提案するネットワークデコードネットワーク(DECONET)は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダと,DeCONETの層間で共有される冗長なスペーシング解析演算子を共同で学習する。
さらに、DECNETの仮説クラスを定式化し、関連するRadecher複雑性を推定する。
次に,この推定値を用いてデコネットの一般化誤差に対して有意義な上限を与える。
最後に、理論結果の妥当性を評価し、合成データと実世界のデータセットの両方において、最先端の展開ネットワークとの比較を行う。
実験の結果,提案するネットワークは,すべてのデータセットに対して一貫してベースラインを上回っており,その動作は理論的な結果に合致していることがわかった。
関連論文リスト
- Optimization dependent generalization bound for ReLU networks based on
sensitivity in the tangent bundle [0.0]
本稿では,フィードフォワードReLUネットワークの一般化誤差に基づいたPAC型を提案する。
得られた境界はネットワークの深さに明示的に依存しない。
論文 参考訳(メタデータ) (2023-10-26T13:14:13Z) - SPP-CNN: An Efficient Framework for Network Robustness Prediction [13.742495880357493]
本稿では,空間ピラミッドプール畳み込みニューラルネットワーク(SPP-CNN)のネットワークロバスト性予測のための効率的なフレームワークを開発する。
新しいフレームワークは、畳み込み層と完全に接続された層の間に空間ピラミッドプーリング層を設置し、CNNベースの予測アプローチにおける一般的なミスマッチ問題を克服する。
論文 参考訳(メタデータ) (2023-05-13T09:09:20Z) - Towards the Characterization of Representations Learned via
Capsule-based Network Architectures [0.0]
Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-09T11:20:11Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Generalization analysis of an unfolding network for analysis-based
Compressed Sensing [27.53377180094267]
展開ネットワークは、圧縮センシング(CS)分野において有望な結果を示している。
本稿では,最先端ADMMに基づく展開ネットワークの一般化解析を行う。
論文 参考訳(メタデータ) (2023-03-09T21:13:32Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Complexity Analysis of an Edge Preserving CNN SAR Despeckling Algorithm [1.933681537640272]
我々は, 畳み込みニューラルネットワークの複雑化によるSARの切り離し効果を生かした。
より深いネットワークは、シミュレートされた画像と実際の画像の両方でより一般化される。
論文 参考訳(メタデータ) (2020-04-17T17:02:01Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。