論文の概要: Learning to Precode for Integrated Sensing and Communications Systems
- arxiv url: http://arxiv.org/abs/2303.06381v1
- Date: Sat, 11 Mar 2023 11:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:19:29.660612
- Title: Learning to Precode for Integrated Sensing and Communications Systems
- Title(参考訳): 統合センシング・通信システムのためのプリコード学習
- Authors: R.S. Prasobh Sankar, Sidharth S. Nair, Siddhant Doshi, and Sundeep
Prabhakar Chepuri
- Abstract要約: 我々はISACシステムのための送信プリコーダを設計するための教師なし学習ニューラルモデルを提案する。
提案手法は,チャネル推定誤差が存在する場合,従来の最適化手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.689567114100514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an unsupervised learning neural model to design
transmit precoders for integrated sensing and communication (ISAC) systems to
maximize the worst-case target illumination power while ensuring a minimum
signal-to-interference-plus-noise ratio (SINR) for all the users. The problem
of learning transmit precoders from uplink pilots and echoes can be viewed as a
parameterized function estimation problem and we propose to learn this function
using a neural network model. To learn the neural network parameters, we
develop a novel loss function based on the first-order optimality conditions to
incorporate the SINR and power constraints. Through numerical simulations, we
demonstrate that the proposed method outperforms traditional optimization-based
methods in presence of channel estimation errors while incurring lesser
computational complexity and generalizing well across different channel
conditions that were not shown during training.
- Abstract(参考訳): 本稿では,センサ・通信(ISAC)システムのためのプリコーダを設計するための教師なし学習ニューラルモデルを提案する。
アップリンクパイロットとエコーからのプリコーダを学習する問題はパラメータ化関数推定問題とみなすことができ、ニューラルネットワークモデルを用いてこの関数を学習することを提案する。
ニューラルネットワークのパラメータを学習するために,1次最適条件に基づく新しい損失関数を開発し,sinrと電力制約を組み込む。
数値シミュレーションにより,提案手法はチャネル推定誤差の有無で従来の最適化法を上回り,計算複雑性を低減し,訓練中に示されなかった異なるチャネル条件をうまく一般化することを示す。
関連論文リスト
- Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Linear Combination of Exponential Moving Averages for Wireless Channel
Prediction [2.34863357088666]
本研究では,指数移動平均(EMA)に基づく予測モデルについて検討した。
EMA線形結合(ELC)と呼ばれる新しいモデルを導入し、説明し、実験的に評価した。
論文 参考訳(メタデータ) (2023-12-13T07:44:05Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Imbedding Deep Neural Networks [0.0]
ニューラルODEのような連続深度ニューラルネットワークは、非線形ベクトル値の最適制御問題の観点から、残留ニューラルネットワークの理解を再燃させた。
本稿では,ネットワークの深さを基本変数とする新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T22:00:41Z) - A Kernel-Expanded Stochastic Neural Network [10.837308632004644]
ディープニューラルネットワークは、トレーニングにおいて、しばしばローカルな最小限に閉じ込められる。
新しいカーネル拡張ニューラルネットワーク(K-StoNet)モデルは、潜在変数モデルとしてネットワークを再構成する。
モデルは命令正規化最適化(IRO)アルゴリズムを用いて容易に訓練することができる。
論文 参考訳(メタデータ) (2022-01-14T06:42:42Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。