論文の概要: Generalization analysis of an unfolding network for analysis-based
Compressed Sensing
- arxiv url: http://arxiv.org/abs/2303.05582v1
- Date: Thu, 9 Mar 2023 21:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:43:50.923732
- Title: Generalization analysis of an unfolding network for analysis-based
Compressed Sensing
- Title(参考訳): 解析に基づく圧縮センシングのための展開ネットワークの一般化解析
- Authors: Vicky Kouni, Yannis Panagakis
- Abstract要約: 展開ネットワークは、圧縮センシング(CS)分野において有望な結果を示している。
本稿では,最先端ADMMに基づく展開ネットワークの一般化解析を行う。
- 参考スコア(独自算出の注目度): 27.53377180094267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unfolding networks have shown promising results in the Compressed Sensing
(CS) field. Yet, the investigation of their generalization ability is still in
its infancy. In this paper, we perform generalization analysis of a
state-of-the-art ADMM-based unfolding network, which jointly learns a decoder
for CS and a sparsifying redundant analysis operator. To this end, we first
impose a structural constraint on the learnable sparsifier, which parametrizes
the network's hypothesis class. For the latter, we estimate its Rademacher
complexity. With this estimate in hand, we deliver generalization error bounds
for the examined network. Finally, the validity of our theory is assessed and
numerical comparisons to a state-of-the-art unfolding network are made, on
synthetic and real-world datasets. Our experimental results demonstrate that
our proposed framework complies with our theoretical findings and outperforms
the baseline, consistently for all datasets.
- Abstract(参考訳): 展開ネットワークは圧縮センシング(cs)の分野で有望な結果を示している。
しかし、その一般化能力に関する調査はまだ初期段階にある。
本稿では,CSデコーダと冗長な冗長解析演算子を共同で学習する,最先端ADMMベースの展開ネットワークの一般化解析を行う。
この目的のために、我々はまずネットワークの仮説クラスをパラメータ化する学習可能なスパーシファイザに構造的制約を課す。
後者については、Radecherの複雑さを見積もる。
この推定を手元に,検討したネットワークに対して一般化誤差境界を提示する。
最後に,本理論の有効性を評価し,合成および実世界のデータセットに基づいて,最先端の展開ネットワークとの比較を行った。
実験の結果,提案するフレームワークは理論的な結果に適合し,全てのデータセットに対して一貫してベースラインを上回ります。
関連論文リスト
- Inferring Dynamic Networks from Marginals with Iterative Proportional Fitting [57.487936697747024]
実世界のデータ制約から生じる一般的なネットワーク推論問題は、その時間集約された隣接行列から動的ネットワークを推論する方法である。
本稿では,ネットワーク構造に対する最小限の変更の下でIPFの収束を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T20:24:56Z) - Sparsity-aware generalization theory for deep neural networks [12.525959293825318]
本稿では、ディープフィードフォワードReLUネットワークの一般化を解析するための新しいアプローチを提案する。
空間性と一般化の基本的なトレードオフを示す。
論文 参考訳(メタデータ) (2023-07-01T20:59:05Z) - Towards the Characterization of Representations Learned via
Capsule-based Network Architectures [0.0]
Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-09T11:20:11Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - DECONET: an Unfolding Network for Analysis-based Compressed Sensing with
Generalization Error Bounds [27.53377180094267]
解析スパーシティーに基づく圧縮センシングのための新しい深部展開ネットワークを提案する。
提案するネットワークデコードネットワーク(DECONET)は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダを共同で学習する。
論文 参考訳(メタデータ) (2022-05-14T12:50:48Z) - Predicting the generalization gap in neural networks using topological
data analysis [33.511371257571504]
トポロジカルデータ解析の手法を用いて,ニューラルネットワークの一般化ギャップについて検討する。
トレーニング後のニューロン活性化相関から構築した重み付きグラフのホモロジー永続図を計算する。
持続性図から異なる数値要約の有用性を比較し、それらの組み合わせによって、テストセットを必要とせずに、その一般化ギャップを正確に予測し、部分的に説明できることを示す。
論文 参考訳(メタデータ) (2022-03-23T11:15:36Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。