論文の概要: Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution
- arxiv url: http://arxiv.org/abs/2010.11391v2
- Date: Fri, 12 Feb 2021 01:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:02:41.506664
- Title: Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution
- Title(参考訳): 圧縮型マルチチャネルブラインドデコンボリューションのための展開型ニューラルネットワーク
- Authors: Bahareh Tolooshams, Satish Mulleti, Demba Ba, and Yonina C. Eldar
- Abstract要約: 圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
- 参考スコア(独自算出の注目度): 71.29848468762789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a learned-structured unfolding neural network for the problem of
compressive sparse multichannel blind-deconvolution. In this problem, each
channel's measurements are given as convolution of a common source signal and
sparse filter. Unlike prior works where the compression is achieved either
through random projections or by applying a fixed structured compression
matrix, this paper proposes to learn the compression matrix from data. Given
the full measurements, the proposed network is trained in an unsupervised
fashion to learn the source and estimate sparse filters. Then, given the
estimated source, we learn a structured compression operator while optimizing
for signal reconstruction and sparse filter recovery. The efficient structure
of the compression allows its practical hardware implementation. The proposed
neural network is an autoencoder constructed based on an unfolding approach:
upon training, the encoder maps the compressed measurements into an estimate of
sparse filters using the compression operator and the source, and the linear
convolutional decoder reconstructs the full measurements. We demonstrate that
our method is superior to classical structured compressive sparse multichannel
blind-deconvolution methods in terms of accuracy and speed of sparse filter
recovery.
- Abstract(参考訳): 圧縮性スパースマルチチャネルブラインドデコンボリューション問題に対して,学習構造を持つ展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
ランダムなプロジェクションや定型化された圧縮行列を適用して圧縮を行う従来の手法とは異なり,本論文ではデータから圧縮行列を学習することを提案する。
提案するネットワークは,全測定値からソースを学習し,スパースフィルタを推定するために教師なしで訓練される。
そして、推定音源から、信号再構成とスパースフィルタ回復を最適化しながら、構造化圧縮演算子を学習する。
圧縮の効率的な構造は、実用的なハードウェア実装を可能にする。
提案したニューラルネットワークは, 展開されたアプローチに基づいて構築されたオートエンコーダであり, エンコーダは, 圧縮演算子とソースを用いて圧縮された測定値をスパースフィルタの推定値にマッピングし, 線形畳み込みデコーダは全測定値を再構成する。
本手法は,従来の圧縮型スパースマルチチャネルブラインドデコンボリューション法よりも,スパースフィルタリカバリの精度と速度において優れていることを示す。
関連論文リスト
- Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Lossy Compression with Gaussian Diffusion [28.930398810600504]
非条件拡散生成モデルに基づく新しい損失圧縮手法DiffCについて述べる。
エンコーダ変換の欠如にもかかわらず、概念実証を実装し、驚くほどうまく機能することを発見した。
流れに基づく再構築は,祖先サンプリングよりも高頻度で3dBのゲインを達成できることを示す。
論文 参考訳(メタデータ) (2022-06-17T16:46:31Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Compressing Neural Networks: Towards Determining the Optimal Layer-wise
Decomposition [62.41259783906452]
本稿では,ディープニューラルネットワークのための新しいグローバル圧縮フレームワークを提案する。
各層を自動的に解析し、最適な層間圧縮比を特定する。
我々の結果は、現代のニューラルネットワークのグローバルなパフォーマンス-サイズトレードオフに関する将来の研究のための新たな道を開く。
論文 参考訳(メタデータ) (2021-07-23T20:01:30Z) - Deep Neural Networks and End-to-End Learning for Audio Compression [2.084078990567849]
本稿では,変分オートエンコーダ(VAE)のトレーニング戦略において,リカレントニューラルネットワーク(RNN)と潜時空間のバイナリ表現を組み合わせたエンドツーエンドのディープラーニング手法を提案する。
RNNを用いた1つの音声圧縮モデルのエンドツーエンド学習としてはこれが初めてであり、我々のモデルは20.54のSDR(Signal to Distortion Ratio)を達成する。
論文 参考訳(メタデータ) (2021-05-25T05:36:30Z) - DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning [79.89085533866071]
本稿では,スパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceはテンソルを2つの集合、値とインデックスに分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
大規模実モデルを用いた実験により,DeepReduceはデータ転送を少なくし,既存の手法よりも計算オーバーヘッドを小さくすることを示した。
論文 参考訳(メタデータ) (2021-02-05T11:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。