論文の概要: Generalization error bounds for DECONET: a deep unfolded network for
analysis Compressive Sensing
- arxiv url: http://arxiv.org/abs/2205.07050v1
- Date: Sat, 14 May 2022 12:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 04:09:53.771615
- Title: Generalization error bounds for DECONET: a deep unfolded network for
analysis Compressive Sensing
- Title(参考訳): deconetの一般化誤り境界:解析圧縮センシングのための深い展開型ネットワーク
- Authors: Vasiliki Kouni
- Abstract要約: 圧縮センシングを解析するための,最先端の最適化アルゴリズムに基づく,新しい深層展開ニューラルネットワークを提案する。
提案するDecoding Network (DECONET) は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダを実装している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new deep unfolding neural network -- based on a
state-of-the-art optimization algorithm -- for analysis Compressed Sensing. The
proposed network called Decoding Network (DECONET) implements a decoder that
reconstructs vectors from their incomplete, noisy measurements. Moreover,
DECONET jointly learns a redundant analysis operator for sparsification, which
is shared across the layers of DECONET. We study the generalization ability of
DECONET. Towards that end, we first estimate the Rademacher complexity of the
hypothesis class consisting of all the decoders that DECONET can implement.
Then, we provide generalization error bounds, in terms of the aforementioned
estimate. Finally, we present numerical experiments which confirm the validity
of our theoretical results.
- Abstract(参考訳): 本稿では、圧縮センシング解析のための最先端最適化アルゴリズムに基づく、新しい深層展開ニューラルネットワークを提案する。
提案するDecoding Network (DECONET) は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダを実装している。
さらに、deconetは、deconetのレイヤ間で共有されるスパース化のための冗長解析演算子を共同で学習する。
DeCONETの一般化能力について検討する。
そこで我々はまず,DECONETが実装可能なデコーダのすべてからなる仮説クラスのRademacher複雑性を推定する。
そして、上記の推定値の観点から一般化誤差境界を提供する。
最後に,理論結果の有効性を確認する数値実験を行った。
関連論文リスト
- Optimization dependent generalization bound for ReLU networks based on
sensitivity in the tangent bundle [0.0]
本稿では,フィードフォワードReLUネットワークの一般化誤差に基づいたPAC型を提案する。
得られた境界はネットワークの深さに明示的に依存しない。
論文 参考訳(メタデータ) (2023-10-26T13:14:13Z) - SPP-CNN: An Efficient Framework for Network Robustness Prediction [13.742495880357493]
本稿では,空間ピラミッドプール畳み込みニューラルネットワーク(SPP-CNN)のネットワークロバスト性予測のための効率的なフレームワークを開発する。
新しいフレームワークは、畳み込み層と完全に接続された層の間に空間ピラミッドプーリング層を設置し、CNNベースの予測アプローチにおける一般的なミスマッチ問題を克服する。
論文 参考訳(メタデータ) (2023-05-13T09:09:20Z) - Towards the Characterization of Representations Learned via
Capsule-based Network Architectures [0.0]
Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-09T11:20:11Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Generalization analysis of an unfolding network for analysis-based
Compressed Sensing [27.53377180094267]
展開ネットワークは、圧縮センシング(CS)分野において有望な結果を示している。
本稿では,最先端ADMMに基づく展開ネットワークの一般化解析を行う。
論文 参考訳(メタデータ) (2023-03-09T21:13:32Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Complexity Analysis of an Edge Preserving CNN SAR Despeckling Algorithm [1.933681537640272]
我々は, 畳み込みニューラルネットワークの複雑化によるSARの切り離し効果を生かした。
より深いネットワークは、シミュレートされた画像と実際の画像の両方でより一般化される。
論文 参考訳(メタデータ) (2020-04-17T17:02:01Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。