論文の概要: Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth
- arxiv url: http://arxiv.org/abs/2010.15376v1
- Date: Thu, 29 Oct 2020 06:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:28:44.744736
- Title: Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth
- Title(参考訳): 通信システムにおける疎線形逆問題の解法:適応深さを用いた深層学習アプローチ
- Authors: Wei Chen, Bowen Zhang, Shi Jin, Bo Ai, Zhangdui Zhong
- Abstract要約: 疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
- 参考スコア(独自算出の注目度): 51.40441097625201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse signal recovery problems from noisy linear measurements appear in many
areas of wireless communications. In recent years, deep learning (DL) based
approaches have attracted interests of researchers to solve the sparse linear
inverse problem by unfolding iterative algorithms as neural networks.
Typically, research concerning DL assume a fixed number of network layers.
However, it ignores a key character in traditional iterative algorithms, where
the number of iterations required for convergence changes with varying sparsity
levels. By investigating on the projected gradient descent, we unveil the
drawbacks of the existing DL methods with fixed depth. Then we propose an
end-to-end trainable DL architecture, which involves an extra halting score at
each layer. Therefore, the proposed method learns how many layers to execute to
emit an output, and the network depth is dynamically adjusted for each task in
the inference phase. We conduct experiments using both synthetic data and
applications including random access in massive MTC and massive MIMO channel
estimation, and the results demonstrate the improved efficiency for the
proposed approach.
- Abstract(参考訳): ノイズリニア測定による疎信号回復問題は、無線通信の多くの領域に現れる。
近年,ディープラーニング(DL)に基づくアプローチは,ニューラルネットワークとして反復アルゴリズムを展開することによって,疎線形逆問題の解決に関心を寄せている。
通常、DLに関する研究は一定数のネットワーク層を仮定する。
しかし、コンバージェンスに必要なイテレーションの回数が、様々な間隔で変化する従来の反復アルゴリズムのキー文字を無視している。
予測勾配降下について検討することにより,既存のDL手法の欠点を一定の深さで明らかにする。
次に、各層で追加の停止スコアを含むエンドツーエンドのトレーニング可能なDLアーキテクチャを提案する。
そこで,提案手法では,レイヤ数を学習して出力を出力し,ネットワークの深さを推定フェーズの各タスクに対して動的に調整する。
大規模mtcおよび大規模mimoチャネル推定におけるランダムアクセスを含む合成データとアプリケーションの両方を用いて実験を行い,提案手法の有効性を示す。
関連論文リスト
- Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - A Direct Sampling-Based Deep Learning Approach for Inverse Medium
Scattering Problems [3.776050336003086]
非均一な散乱体を再構成するための新しい直接サンプリングベースディープラーニング手法(DSM-DL)を提案する。
提案するDSM-DLは,計算効率が高く,ノイズに耐性があり,実装が容易で,自然に複数の計測データを組み込むことができる。
論文 参考訳(メタデータ) (2023-04-29T12:29:30Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Graph Signal Restoration Using Nested Deep Algorithm Unrolling [85.53158261016331]
グラフ信号処理は、センサー、社会交通脳ネットワーク、ポイントクラウド処理、グラフネットワークなど、多くのアプリケーションにおいてユビキタスなタスクである。
凸非依存型深部ADMM(ADMM)に基づく2つの復元手法を提案する。
提案手法のパラメータはエンドツーエンドでトレーニング可能である。
論文 参考訳(メタデータ) (2021-06-30T08:57:01Z) - Deep Transform and Metric Learning Networks [30.753361147185995]
本稿では,リニア層とリカレントニューラルネットワークの組み合わせとして,各dl層を定式化し,解くことができる新しい深層dl手法を提案する。
ニューラル・ネットワークとディープ・DLの新たな知見を明らかにし、ディープ・トランスフォーメーションとメトリクスを共同学習する斬新で効率的で競争的なアプローチを提供します。
論文 参考訳(メタデータ) (2021-04-21T03:10:15Z) - Regularizing Deep Networks with Semantic Data Augmentation [44.53483945155832]
従来の手法を補完する新しい意味データ拡張アルゴリズムを提案する。
提案手法はディープネットワークが線形化特徴の学習に有効であるという興味深い性質に着想を得たものである。
提案した暗黙的セマンティックデータ拡張(ISDA)アルゴリズムは,新たなロバストCE損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-07-21T00:32:44Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - Semi-Implicit Back Propagation [1.5533842336139065]
ニューラルネットワークトレーニングのための半単純バック伝搬法を提案する。
ニューロンの差は後方方向に伝播し、パラメータは近位写像で更新される。
MNISTとCIFAR-10の両方の実験により、提案アルゴリズムは損失減少とトレーニング/検証の精度の両方において、より良い性能をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-10T03:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。