論文の概要: Subspace Representation Learning for Sparse Linear Arrays to Localize More Sources than Sensors: A Deep Learning Methodology
- arxiv url: http://arxiv.org/abs/2408.16605v1
- Date: Thu, 29 Aug 2024 15:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 13:23:15.048437
- Title: Subspace Representation Learning for Sparse Linear Arrays to Localize More Sources than Sensors: A Deep Learning Methodology
- Title(参考訳): センサよりも多くのソースをローカライズするスパースリニアアレイのサブスペース表現学習:深層学習方法論
- Authors: Kuan-Lin Chen, Bhaskar D. Rao,
- Abstract要約: 我々はスパース線形アレイ(SLA)のサンプル共分散からコアレイ部分空間を推定する新しい手法を開発した。
このような表現を学習するために、所望部分空間と推定部分空間との分離を測る損失関数を提案する。
異なる次元の学習部分空間の計算は、新しいバッチサンプリング戦略によって高速化される。
- 参考スコア(独自算出の注目度): 19.100476521802243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localizing more sources than sensors with a sparse linear array (SLA) has long relied on minimizing a distance between two covariance matrices and recent algorithms often utilize semidefinite programming (SDP). Although deep neural network (DNN)-based methods offer new alternatives, they still depend on covariance matrix fitting. In this paper, we develop a novel methodology that estimates the co-array subspaces from a sample covariance for SLAs. Our methodology trains a DNN to learn signal and noise subspace representations that are invariant to the selection of bases. To learn such representations, we propose loss functions that gauge the separation between the desired and the estimated subspace. In particular, we propose losses that measure the length of the shortest path between subspaces viewed on a union of Grassmannians, and prove that it is possible for a DNN to approximate signal subspaces. The computation of learning subspaces of different dimensions is accelerated by a new batch sampling strategy called consistent rank sampling. The methodology is robust to array imperfections due to its geometry-agnostic and data-driven nature. In addition, we propose a fully end-to-end gridless approach that directly learns angles to study the possibility of bypassing subspace methods. Numerical results show that learning such subspace representations is more beneficial than learning covariances or angles. It outperforms conventional SDP-based methods such as the sparse and parametric approach (SPA) and existing DNN-based covariance reconstruction methods for a wide range of signal-to-noise ratios (SNRs), snapshots, and source numbers for both perfect and imperfect arrays.
- Abstract(参考訳): スパース線形アレイ(SLA)を用いたセンサよりも多くのソースをローカライズすることは、2つの共分散行列間の距離を最小化することに依存しており、最近のアルゴリズムは半定値プログラミング(SDP)を利用することが多い。
ディープニューラルネットワーク(DNN)ベースの手法は、新しい代替手段を提供するが、それでも共分散行列の適合に依存している。
本稿では、SLAのサンプル共分散からコアレイ部分空間を推定する新しい手法を開発する。
我々の手法は、ベースの選択に不変な信号とノイズ部分空間表現を学ぶためにDNNを訓練する。
このような表現を学習するために、所望部分空間と推定部分空間との分離を測る損失関数を提案する。
特に、グラスマンの和集合上で見た部分空間間の最短経路の長さを測定する損失を提案し、DNNが信号部分空間を近似することが可能であることを証明した。
異なる次元の学習部分空間の計算は、一貫した階数サンプリングと呼ばれる新しいバッチサンプリング戦略によって加速される。
この手法は、幾何学に依存しないデータ駆動の性質のため、配列の不完全性に対して堅牢である。
さらに,部分空間法をバイパスする可能性を研究するために,角度を直接学習する完全エンドツーエンドのグリッドレス手法を提案する。
数値的な結果から,そのような部分空間表現の学習は,共分散や角度の学習よりも有益であることが示唆された。
スパース・パラメトリック・アプローチ(SPA)や既存のDNNベースの共分散再構成手法といった従来のSDPベースの手法よりも、幅広い信号対雑音比(SNR)、スナップショット、および完璧な配列と不完全な配列のソース数に優れる。
関連論文リスト
- SubspaceNet: Deep Learning-Aided Subspace Methods for DoA Estimation [36.647703652676626]
SubspaceNetは、観測を区別可能な部分空間に分割する方法を学ぶデータ駆動型DoA推定器である。
SubspaceNetは、コヒーレントソース、広帯域信号、低いSNR、配列ミスマッチ、限られたスナップショットに対処する様々なDoA推定アルゴリズムを実現する。
論文 参考訳(メタデータ) (2023-06-04T06:30:13Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Variational Sparse Coding with Learned Thresholding [6.737133300781134]
サンプルをしきい値にすることでスパース分布を学習できる変分スパース符号化の新しい手法を提案する。
まず,線形発生器を訓練し,その性能,統計的効率,勾配推定に優れることを示す。
論文 参考訳(メタデータ) (2022-05-07T14:49:50Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Closed-Loop Data Transcription to an LDR via Minimaxing Rate Reduction [27.020835928724775]
本研究では,実世界のデータセットに対する明示的な生成モデル学習のための新しい計算フレームワークを提案する。
特に,多次元多次元データ分布と特徴空間における線形識別表現(LDR)の間の閉ループ転写を学習することを提案する。
多くのベンチマークデータセットに対する実験は、この新しいクローズドループの定式化の可能性を示している。
論文 参考訳(メタデータ) (2021-11-12T10:06:08Z) - Learning Generative Prior with Latent Space Sparsity Constraints [25.213673771175692]
自然像の分布は1つの多様体にではなく、むしろいくつかの部分多様体の結合にあると論じられている。
本稿では,スペーサ性駆動型潜時空間サンプリング(SDLSS)フレームワークを提案し,PMLアルゴリズムを用いて潜時空間のスペーサ性を実現する。
その結果, SDLSS法は, 高次圧縮では最先端法よりも効率が高いことがわかった。
論文 参考訳(メタデータ) (2021-05-25T14:12:04Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Effective Version Space Reduction for Convolutional Neural Networks [61.84773892603885]
アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
論文 参考訳(メタデータ) (2020-06-22T17:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。