論文の概要: Multi-modal Iterative and Deep Fusion Frameworks for Enhanced Passive DOA Sensing via a Green Massive H2AD MIMO Receiver
- arxiv url: http://arxiv.org/abs/2411.06927v1
- Date: Mon, 11 Nov 2024 12:32:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:43.398604
- Title: Multi-modal Iterative and Deep Fusion Frameworks for Enhanced Passive DOA Sensing via a Green Massive H2AD MIMO Receiver
- Title(参考訳): グリーン質量H2ADMIMO受信機によるパッシブDOAセンシングのための多モード反復・深部核融合フレームワーク
- Authors: Jiatong Bai, Minghao Chen, Wankai Tang, Yifan Li, Cunhua Pan, Yongpeng Wu, Feng Shu,
- Abstract要約: グリーンマルチモーダル(MM)融合DOAフレームワークは,より実用的で低コストで高時間効率なDOA推定を実現するために提案されている。
より効率的なクラスタリング手法として, GMaxCS(Global maximum cos_similarity clustering)とGMinD(Global minimum distance clustering)がある。
- 参考スコア(独自算出の注目度): 28.483741082998446
- License:
- Abstract: Most existing DOA estimation methods assume ideal source incident angles with minimal noise. Moreover, directly using pre-estimated angles to calculate weighted coefficients can lead to performance loss. Thus, a green multi-modal (MM) fusion DOA framework is proposed to realize a more practical, low-cost and high time-efficiency DOA estimation for a H$^2$AD array. Firstly, two more efficient clustering methods, global maximum cos\_similarity clustering (GMaxCS) and global minimum distance clustering (GMinD), are presented to infer more precise true solutions from the candidate solution sets. Based on this, an iteration weighted fusion (IWF)-based method is introduced to iteratively update weighted fusion coefficients and the clustering center of the true solution classes by using the estimated values. Particularly, the coarse DOA calculated by fully digital (FD) subarray, serves as the initial cluster center. The above process yields two methods called MM-IWF-GMaxCS and MM-IWF-GMinD. To further provide a higher-accuracy DOA estimation, a fusion network (fusionNet) is proposed to aggregate the inferred two-part true angles and thus generates two effective approaches called MM-fusionNet-GMaxCS and MM-fusionNet-GMinD. The simulation outcomes show the proposed four approaches can achieve the ideal DOA performance and the CRLB. Meanwhile, proposed MM-fusionNet-GMaxCS and MM-fusionNet-GMinD exhibit superior DOA performance compared to MM-IWF-GMaxCS and MM-IWF-GMinD, especially in extremely-low SNR range.
- Abstract(参考訳): 既存のDOA推定手法の多くは、ノイズを最小限にした理想的な音源入射角を仮定する。
さらに、重み付き係数を計算するために事前推定角度を直接使用すると、性能が低下する可能性がある。
したがって,H$^2$ADアレイに対して,より実用的で低コストかつ高時間効率なDOA推定を実現するために,グリーンマルチモーダル(MM)融合DOAフレームワークを提案する。
まず, 2つのより効率的なクラスタリング手法, GMaxCS(英語版)とGMinD(英語版)が提案され, 候補解集合からより正確な真の解を推測する。
これに基づいて、推定値を用いて、重み付き核融合係数と真の解クラスのクラスタリング中心を反復的に更新する反復重み付き核融合(IWF)に基づく手法を導入する。
特に、フルデジタル(FD)サブアレイで計算された粗いDOAが初期クラスタセンタとして機能する。
このプロセスはMM-IWF-GMaxCSとMM-IWF-GMinDという2つの手法を生成する。
さらに、より高精度なDOA推定法として、推定された2部分の真の角度を集約する融合ネットワーク(fusionNet)を提案し、MM-fusionNet-GMaxCSとMM-fusionNet-GMinDという2つの効果的なアプローチを生成する。
シミュレーション結果から,提案した4つの手法が理想的なDOA性能とCRLBを実現することを示す。
一方,MM-fusionNet-GMaxCSとMM-fusionNet-GMinDは,MM-IWF-GMaxCSとMM-IWF-GMinDよりも優れたDOA性能を示した。
関連論文リスト
- Enhancing Adaptive Deep Networks for Image Classification via Uncertainty-aware Decision Fusion [27.117531006305974]
本稿では,適応型深層ネットワークの推論性能を高めるために,CDM(Collaborative Decision Making)モジュールを導入する。
CDMは、第1のc-1分類器からの信頼性(不確かさ値)を利用する、明らかな深層学習(EDL)に基づく不確実性認識融合手法を取り入れている。
また、CDMの核融合品質を改善するために、EDL制約による核融合飽和度と不公平性の問題を低減するバランス項を設計する。
論文 参考訳(メタデータ) (2024-08-25T07:08:58Z) - Co-learning-aided Multi-modal-deep-learning Framework of Passive DOA Estimators for a Heterogeneous Hybrid Massive MIMO Receiver [16.847344273958292]
完全デジタル(FD) 大規模なマルチインプット多重出力(MIMO)アンテナアレイは、データ伝送と到着方向(DOA)測定に広く応用されている。
計算複雑性と回路コストの2つの大きな課題に直面している。
この2つの問題は、ハイブリッドアナログデジタル構造(HAD)によってうまく対処できる。
しかし、HADの位相曖昧性の問題があるため、その低効率性や高レイテンシにつながる。
論文 参考訳(メタデータ) (2024-04-27T07:34:36Z) - DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning [52.83811558753284]
分散学習(DFL)は、中央サーバーを捨て、分散通信ネットワークを確立する。
既存のDFL手法は依然として、局所的な矛盾と局所的な過度なオーバーフィッティングという2つの大きな課題に悩まされている。
論文 参考訳(メタデータ) (2023-08-16T11:22:36Z) - Provable Multi-instance Deep AUC Maximization with Stochastic Pooling [39.46116380220933]
本稿では,マルチインスタンス学習(MIL)における深層AUC(DAM)の新たな応用について考察する。
単一のクラスラベルは、インスタンスのバッグに割り当てられる(例えば、患者のためのスキャンの複数の2Dスライスなど)。
論文 参考訳(メタデータ) (2023-05-14T01:29:56Z) - Late Fusion Multi-view Clustering via Global and Local Alignment
Maximization [61.89218392703043]
マルチビュークラスタリング(MVC)は、異なるビューからの補完情報を最適に統合し、クラスタリング性能を改善する。
既存のアプローチの多くは、クラスタリングに最適な類似性行列を学ぶために、複数の事前定義された類似性を直接融合する。
これらの問題に対処するために、アライメントを通してレイトフュージョンMVCを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:49:31Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Coarse-to-Fine Embedded PatchMatch and Multi-Scale Dynamic Aggregation
for Reference-based Super-Resolution [48.093500219958834]
参照型スーパーリゾリューションのためのAMSA(Accelerated Multi-Scale Aggregation Network)を提案する。
提案したAMSAは,定量評価と定性評価の両面において,最先端の手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-12T08:40:23Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Online Multi-Object Tracking and Segmentation with GMPHD Filter and
Mask-based Affinity Fusion [79.87371506464454]
本稿では,インスタンス分割結果を入力として利用するMOTS法を提案する。
提案手法は,ガウス混合確率仮説密度 (GMPHD) フィルタ,階層型データアソシエーション (HDA) モデル,マスクベース親和性融合 (MAF) モデルに基づく。
2つの人気のあるMOTSデータセットの実験では、主要なモジュールがいくつかの改善点を示している。
論文 参考訳(メタデータ) (2020-08-31T21:06:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。