論文の概要: A Robust Deep Unfolded Network for Sparse Signal Recovery from Noisy
Binary Measurements
- arxiv url: http://arxiv.org/abs/2010.07564v1
- Date: Thu, 15 Oct 2020 07:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:22:04.763227
- Title: A Robust Deep Unfolded Network for Sparse Signal Recovery from Noisy
Binary Measurements
- Title(参考訳): 雑音2値測定による疎信号回復のためのロバストなディープアンフォールドネットワーク
- Authors: Y.Yang, P.Xiao, B.Liao, N.Deligiannis
- Abstract要約: 本稿では,1ビット圧縮センシング問題を解くために,DeepFPC-$elllipped$という新しいディープニューラルネットワークを提案する。
DeepFPC-$ell$法は従来のFPC-$ell$法よりも高い信号精度と収束速度を示す。
提案手法は,従来のDeepFPC法よりもノイズ免疫性が高いことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel deep neural network, coined DeepFPC-$\ell_2$, for solving
the 1-bit compressed sensing problem. The network is designed by unfolding the
iterations of the fixed-point continuation (FPC) algorithm with one-sided
$\ell_2$-norm (FPC-$\ell_2$). The DeepFPC-$\ell_2$ method shows higher signal
reconstruction accuracy and convergence speed than the traditional FPC-$\ell_2$
algorithm. Furthermore, we compare its robustness to noise with the previously
proposed DeepFPC network---which stemmed from unfolding the FPC-$\ell_1$
algorithm---for different signal to noise ratio (SNR) and sign-flipped ratio
(flip ratio) scenarios. We show that the proposed network has better noise
immunity than the previous DeepFPC method. This result indicates that the
robustness of a deep-unfolded neural network is related with that of the
algorithm it stems from.
- Abstract(参考訳): 本稿では1ビット圧縮センシング問題を解くために,DeepFPC-$\ell_2$という新しいディープニューラルネットワークを提案する。
このネットワークは、固定点継続(FPC)アルゴリズムの反復を片側$\ell_2$-norm (FPC-$\ell_2$)で展開することによって設計されている。
DeepFPC-$\ell_2$法は従来のFPC-$\ell_2$法よりも高い信号再構成精度と収束速度を示す。
さらに、FPC-$\ell_1$アルゴリズムを展開させたDeepFPCネットワークとノイズとのロバスト性を比較し、異なる信号対雑音比(SNR)と符号フリップ比(フリップ比)のシナリオについて検討した。
提案手法は,従来のDeepFPC法よりもノイズ免疫性が高いことを示す。
この結果は、ディープアンフォールドニューラルネットワークのロバスト性は、それに由来するアルゴリズムのロバスト性と関連していることを示している。
関連論文リスト
- Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Efficiently Escaping Saddle Points for Non-Convex Policy Optimization [40.0986936439803]
政策勾配(PG)は、拡張性と優れた性能のために強化学習に広く用いられている。
本稿では,ヘッセンベクトル積 (HVP) の形で二階情報を用いた分散還元二階法を提案し,サンプルの複雑さを$tildeO(epsilon-3)$とする近似二階定常点 (SOSP) に収束する。
論文 参考訳(メタデータ) (2023-11-15T12:36:45Z) - Optimal Approximation and Learning Rates for Deep Convolutional Neural
Networks [17.075804626858748]
本稿では,ゼロパディングと最大プーリングを併用した深部畳み込みニューラルネットワークの近似と学習性能解析に着目する。
近似関数として,深度$L$の深部畳み込みニューラルネットワークの近似速度が,対数係数に最適化された次数$ (L2/log L)-2r/d $であることが証明された。
論文 参考訳(メタデータ) (2023-08-07T02:37:02Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Matching Pursuit Based Scheduling for Over-the-Air Federated Learning [67.59503935237676]
本稿では,フェデレートラーニング手法を用いて,オーバー・ザ・エアラーニングのための低複雑さデバイススケジューリングアルゴリズムのクラスを開発する。
最先端の提案方式と比較すると,提案方式は極めて低効率なシステムである。
提案手法の有効性は,CIFARデータセットを用いた実験により確認した。
論文 参考訳(メタデータ) (2022-06-14T08:14:14Z) - Deep Learning-based List Sphere Decoding for Faster-than-Nyquist (FTN)
Signaling Detection [0.0]
Faster-than-Nyquist (FTN) シグナルは非正規伝送技術候補である。
本稿では,深層学習(DL)を用いたFTN信号の検出複雑性の低減について検討する。
論文 参考訳(メタデータ) (2022-04-15T17:46:03Z) - The edge of chaos: quantum field theory and deep neural networks [0.0]
我々は、ディープニューラルネットワークの一般クラスに対応する量子場理論を明示的に構築する。
我々は、深さ$T$と幅$N$との比の摂動展開において、相関関数に対するループ補正を計算する。
我々の分析は、急速に出現するNN-QFT対応に対する第一原理のアプローチを提供し、ディープニューラルネットワークの臨界性の研究にいくつかの興味深い道を開く。
論文 参考訳(メタデータ) (2021-09-27T18:00:00Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。