論文の概要: A Learning-Based Fast Uplink Grant for Massive IoT via Support Vector
Machines and Long Short-Term Memory
- arxiv url: http://arxiv.org/abs/2108.10070v1
- Date: Mon, 2 Aug 2021 11:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:07:38.123482
- Title: A Learning-Based Fast Uplink Grant for Massive IoT via Support Vector
Machines and Long Short-Term Memory
- Title(参考訳): サポートベクトルマシンと長期記憶による大規模IoTのための学習ベース高速アップリンク
- Authors: Eslam Eldeeb, Mohammad Shehab, and Hirley Alves
- Abstract要約: 3IoTは、レイテンシを低減し、スマートインターネット・オブ・シング(mMTC)アプリケーションの信頼性を高めるために、高速アップリンク・アロケーション(FUG)を使用する必要性を導入した。
サポートマシンスケジューラ(SVM)に基づく新しいFUGアロケーションを提案する。
第2に、LSTMアーキテクチャは、予測エラーを克服するためにトラフィック予測と補正技術に使用される。
- 参考スコア(独自算出の注目度): 8.864453148536057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current random access (RA) allocation techniques suffer from congestion
and high signaling overhead while serving massive machine type communication
(mMTC) applications. To this end, 3GPP introduced the need to use fast uplink
grant (FUG) allocation in order to reduce latency and increase reliability for
smart internet-of-things (IoT) applications with strict QoS constraints. We
propose a novel FUG allocation based on support vector machine (SVM), First,
MTC devices are prioritized using SVM classifier. Second, LSTM architecture is
used for traffic prediction and correction techniques to overcome prediction
errors. Both results are used to achieve an efficient resource scheduler in
terms of the average latency and total throughput. A Coupled Markov Modulated
Poisson Process (CMMPP) traffic model with mixed alarm and regular traffic is
applied to compare the proposed FUG allocation to other existing allocation
techniques. In addition, an extended traffic model based CMMPP is used to
evaluate the proposed algorithm in a more dense network. We test the proposed
scheme using real-time measurement data collected from the Numenta Anomaly
Benchmark (NAB) database. Our simulation results show the proposed model
outperforms the existing RA allocation schemes by achieving the highest
throughput and the lowest access delay of the order of 1 ms by achieving
prediction accuracy of 98 $\%$ when serving the target massive and critical MTC
applications with a limited number of resources.
- Abstract(参考訳): 現在のランダムアクセス(RA)割り当て技術は、大規模なマシン型通信(mMTC)アプリケーションを提供しながら、混雑と高い信号オーバーヘッドに悩まされている。
この目的のために、3GPPは、レイテンシを低減し、厳格なQoS制約のあるスマートインターネット・オブ・シング(IoT)アプリケーションの信頼性を高めるために、高速アップリンク・アロケーション(FUG)を使用する必要性を導入した。
まず,mtcデバイスはsvm分類器を用いて優先順位付けされるため,svmに基づく新しいfugアロケーションを提案する。
第2に、LSTMアーキテクチャは、予測エラーを克服するためにトラフィック予測と補正技術に使用される。
両結果は、平均レイテンシと総スループットの観点から、効率的なリソーススケジューラを達成するために使用される。
混合アラームと正規トラフィックを伴うCMMPP(Coupled Markov Modulated Poisson Process)トラヒックモデルを適用し,提案したFUGアロケーションと既存のアロケーション技術との比較を行った。
さらに,拡張トラヒックモデルに基づくCMMPPを用いて,より高密度なネットワークにおける提案アルゴリズムの評価を行う。
提案手法をnumenta anomaly benchmark (nab) データベースから収集した実時間計測データを用いて検証した。
シミュレーションの結果,提案手法は,最大スループットと最低アクセス遅延を1msで達成し,目標とする大規模かつクリティカルなMSCアプリケーションに限られたリソースを供給した場合の予測精度を98$\%とすることで,既存のRAアロケーション方式よりも優れた性能を示す。
関連論文リスト
- HiRE: High Recall Approximate Top-$k$ Estimation for Efficient LLM
Inference [68.59839755875252]
HiREは2つの新しいコンポーネントから構成される: (i) (i) (i) (i) (i) (i) (i) (i) (i) (i) (ii) DA-TOP-$k$: 効率的なマルチデバイス近似トップ-k$演算子) (i) (i) (i) (i) (i) (i) (i) DA-TOP-$k$演算子) 。
我々は、10億のパラメータモデルにおいて、HiREがソフトマックスとフィードフォワード層の両方に適用され、ほぼ一致した事前学習と下流の精度を実現し、1台のTPUv5eデバイスで1.47Times$の推論遅延を高速化することを示した。
論文 参考訳(メタデータ) (2024-02-14T18:04:36Z) - SIMPL: A Simple and Efficient Multi-agent Motion Prediction Baseline for
Autonomous Driving [27.776472262857045]
本稿では,自動運転車のための簡易かつ効率的な運動予測ベースライン(SIMPL)を提案する。
メッセージ転送を対称的に行う,コンパクトで効率的なグローバル機能融合モジュールを提案する。
強力なベースラインとして、SIMPLはArgoverse 1と2のモーション予測ベンチマークで高い競争性能を示す。
論文 参考訳(メタデータ) (2024-02-04T15:07:49Z) - Guaranteed Dynamic Scheduling of Ultra-Reliable Low-Latency Traffic via
Conformal Prediction [72.59079526765487]
アップリンクにおける超信頼性・低遅延トラフィック(URLLC)の動的スケジューリングは、既存のサービスの効率を大幅に向上させることができる。
主な課題は、URLLCパケット生成のプロセスにおける不確実性である。
本稿では,URLLC トラフィック予測器の品質に関わらず,信頼性と遅延を保証した新しい URLLC パケットスケジューラを提案する。
論文 参考訳(メタデータ) (2023-02-15T14:09:55Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Event-Driven Source Traffic Prediction in Machine-Type Communications
Using LSTM Networks [5.995091801910689]
イベント駆動ソーストラフィック予測のためのLong Short-Term Memory (LSTM)ベースのディープラーニングアプローチを提案する。
我々のモデルは、既存のベースラインソリューションよりも、リソースの節約と精度を約9%で上回ります。
論文 参考訳(メタデータ) (2021-01-12T09:31:18Z) - Data-Driven Random Access Optimization in Multi-Cell IoT Networks with
NOMA [78.60275748518589]
非直交多重アクセス(NOMA)は、5Gネットワーク以降で大規模なマシンタイプ通信(mMTC)を可能にする重要な技術です。
本稿では,高密度空間分散マルチセル無線IoTネットワークにおけるランダムアクセス効率向上のために,NOMAを適用した。
ユーザ期待容量の幾何学的平均を最大化するために,各IoTデバイスの伝送確率を調整したランダムチャネルアクセス管理の新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-01-02T15:21:08Z) - Fast Grant Learning-Based Approach for Machine Type Communications with
NOMA [19.975709017224585]
本稿では,非直交多重アクセス(NOMA)ベースの通信フレームワークを提案する。
提案手法は,まず,基地局(BS)に要求を送らずにデバイスをスケジュールするために,高速アップリンク付与を利用する2ステップ機構である。
論文 参考訳(メタデータ) (2020-08-31T21:14:21Z) - Machine Learning for Predictive Deployment of UAVs with Multiple Access [37.49465317156625]
本稿では無人航空機(UAV)の機械学習展開フレームワークについて検討する。
時間的なトラフィック分布のため、将来的なセルトラフィックを予測するために、LSTM(Long Short-term memory)ベースの予測が導入される。
提案手法は従来手法と比較して消費電力の最大24%を削減できる。
論文 参考訳(メタデータ) (2020-03-02T00:15:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。