論文の概要: PRONTO: Preamble Overhead Reduction with Neural Networks for Coarse
Synchronization
- arxiv url: http://arxiv.org/abs/2112.10885v1
- Date: Mon, 20 Dec 2021 22:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:45:12.739486
- Title: PRONTO: Preamble Overhead Reduction with Neural Networks for Coarse
Synchronization
- Title(参考訳): PRONTO: 粗同期のためのニューラルネットワークによるプリアンブルオーバーヘッド削減
- Authors: Nasim Soltani, Debashri Roy, and Kaushik Chowdhury
- Abstract要約: IEEE 802.11 WiFi ベースの波形では、レシーバはレガシショートトレーニングフィールド (L-STF) として知られるプリアンブルの第1フィールドを用いて粗い時間と周波数同期を行う。
通信オーバヘッドを低減することを目的として,L-STFを除去してプリアンブル長を小さくする修正波形を提案する。
この修正波形をデコードするために、粗い時間と周波数推定を行うPRONTOと呼ばれる機械学習(ML)ベースのスキームを提案する。
- 参考スコア(独自算出の注目度): 1.242591017155152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In IEEE 802.11 WiFi-based waveforms, the receiver performs coarse time and
frequency synchronization using the first field of the preamble known as the
legacy short training field (L-STF). The L-STF occupies upto 40% of the
preamble length and takes upto 32 us of airtime. With the goal of reducing
communication overhead, we propose a modified waveform, where the preamble
length is reduced by eliminating the L-STF. To decode this modified waveform,
we propose a machine learning (ML)-based scheme called PRONTO that performs
coarse time and frequency estimations using other preamble fields, specifically
the legacy long training field (L-LTF). Our contributions are threefold: (i) We
present PRONTO featuring customized convolutional neural networks (CNNs) for
packet detection and coarse CFO estimation, along with data augmentation steps
for robust training. (ii) We propose a generalized decision flow that makes
PRONTO compatible with legacy waveforms that include the standard L-STF. (iii)
We validate the outcomes on an over-the-air WiFi dataset from a testbed of
software defined radios (SDRs). Our evaluations show that PRONTO can perform
packet detection with 100% accuracy, and coarse CFO estimation with errors as
small as 3%. We demonstrate that PRONTO provides upto 40% preamble length
reduction with no bit error rate (BER) degradation. Finally, we experimentally
show the speedup achieved by PRONTO through GPU parallelization over the
corresponding CPU-only implementations.
- Abstract(参考訳): IEEE 802.11 WiFi ベースの波形では、レシーバはレガシショートトレーニングフィールド (L-STF) として知られるプリアンブルの第1フィールドを用いて粗い時間と周波数同期を行う。
L-STFは、プリアンブルの長さの最大40%を占め、32時間の空気を消費する。
通信オーバヘッドを低減することを目的として,L-STFを除去してプリアンブル長を小さくする修正波形を提案する。
この修正波形をデコードするために,他のプリアンブル場,特にレガシロングトレーニング場(L-LTF)を用いて粗い時間と周波数推定を行うPRONTOと呼ばれる機械学習(ML)ベースのスキームを提案する。
私たちの貢献は3倍です
(i)パケット検出と粗いCFO推定のためのカスタマイズ畳み込みニューラルネットワーク(CNN)とロバストトレーニングのためのデータ拡張ステップを特徴とするPRONTOを提案する。
(II)PRONTOを標準L-STFを含むレガシー波形と互換性のある一般化された決定フローを提案する。
(iii) software defined radios (sdrs) のテストベッドから,wifiデータセット上での結果を検証する。
評価の結果,prontoは100%精度でパケット検出が可能であり,誤差が3%以下の粗いcfo推定が可能であった。
ProNTOは,ビット誤り率 (BER) の低下を伴わず,最大40%のプリアンブル長短縮を実現している。
最後に、PRONTOによるGPU並列化による高速化を、対応するCPUのみの実装に対して実験的に示す。
関連論文リスト
- Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Extending GCC-PHAT using Shift Equivariant Neural Networks [17.70159660438739]
位相変換(GCC-PHAT)と一般化された相互相関に基づく手法が話者定位に広く採用されている。
本稿では、シフト同変ニューラルネットワークを用いて受信信号をフィルタリングするGCC-PHATの拡張手法を提案する。
本モデルでは,GCC-PHATの誤差を常に低減し,正確な時間遅延回復を保証している。
論文 参考訳(メタデータ) (2022-08-09T10:31:10Z) - Deep Learning-Based Synchronization for Uplink NB-IoT [72.86843435313048]
狭帯域モノのインターネット(NB-IoT)における狭帯域物理ランダムアクセスチャネル(NPRACH)のデバイス検出と到着時刻推定のためのニューラルネットワーク(NN)に基づくアルゴリズムを提案する。
導入されたNNアーキテクチャは、残余の畳み込みネットワークと、5Gニューラジオ(5G NR)仕様のプリアンブル構造に関する知識を利用する。
論文 参考訳(メタデータ) (2022-05-22T12:16:43Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Adaptive Transmission Scheduling in Wireless Networks for Asynchronous
Federated Learning [13.490583662839725]
無線学習ネットワーク(WDLN)における非同期フェデレーションラーニング(FL)の研究
Asynchronous Learning-Aware transmission Scheduling (ALS) 問題を定式化し、効果スコアを最大化します。
ALSアルゴリズムによって訓練されたモデルが理想的なベンチマークによってそれに近い性能を達成することをシミュレーションによって示します。
論文 参考訳(メタデータ) (2021-03-02T02:28:20Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。