論文の概要: Bandwidth Reservation for Time-Critical Vehicular Applications: A Multi-Operator Environment
- arxiv url: http://arxiv.org/abs/2503.17756v1
- Date: Sat, 22 Mar 2025 12:36:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:40:09.618917
- Title: Bandwidth Reservation for Time-Critical Vehicular Applications: A Multi-Operator Environment
- Title(参考訳): 時間的臨界ベクトル応用のための帯域予約:マルチオペレータ環境
- Authors: Abdullah Al-Khatib, Abdullah Ahmed, Klaus Moessner, Holger Timinger,
- Abstract要約: 帯域予約要求は 価格変動や公平性の問題といった 課題に直面します
本研究は,複数のMNOの最適価格を求めることにより,資源コストを最小化することを目的とする。
- 参考スコア(独自算出の注目度): 1.1749564892273827
- License:
- Abstract: Onsite bandwidth reservation requests often face challenges such as price fluctuations and fairness issues due to unpredictable bandwidth availability and stringent latency requirements. Requesting bandwidth in advance can mitigate the impact of these fluctuations and ensure timely access to critical resources. In a multi-Mobile Network Operator (MNO) environment, vehicles need to select cost-effective and reliable resources for their safety-critical applications. This research aims to minimize resource costs by finding the best price among multiple MNOs. It formulates multi-operator scenarios as a Markov Decision Process (MDP), utilizing a Deep Reinforcement Learning (DRL) algorithm, specifically Dueling Deep Q-Learning. For efficient and stable learning, we propose a novel area-wise approach and an adaptive MDP synthetic close to the real environment. The Temporal Fusion Transformer (TFT) is used to handle time-dependent data and model training. Furthermore, the research leverages Amazon spot price data and adopts a multi-phase training approach, involving initial training on synthetic data, followed by real-world data. These phases enable the DRL agent to make informed decisions using insights from historical data and real-time observations. The results show that our model leads to significant cost reductions, up to 40%, compared to scenarios without a policy model in such a complex environment.
- Abstract(参考訳): オンサイト帯域予約要求は、予測不可能な帯域幅可用性と厳格なレイテンシ要求により、価格変動や公平性といった問題に直面することが多い。
帯域幅の要求は、これらの変動の影響を緩和し、重要なリソースへのタイムリーなアクセスを確保する。
MNO(Multi-Mobile Network Operator)環境では、車両は安全クリティカルなアプリケーションのためにコスト効率が高く信頼性の高いリソースを選択する必要がある。
本研究は,複数のMNOの最適価格を求めることにより,資源コストを最小化することを目的とする。
マルチオペレータシナリオを、Deep Reinforcement Learning (DRL)アルゴリズム、特にDueling Deep Q-Learningを用いて、マルコフ決定プロセス(MDP)として定式化する。
効率的かつ安定した学習のために,本研究では,実環境に近い領域的アプローチと適応型MDP合成を提案する。
TFT(Temporal Fusion Transformer)は、時間依存データとモデルトレーニングを扱うために使用される。
さらに、この研究はAmazonのスポット価格データを活用し、合成データの初期トレーニングとそれに続く実世界のデータを含むマルチフェーズトレーニングアプローチを採用する。
これらのフェーズにより、DRLエージェントは、歴史的データやリアルタイム観測からの洞察を用いて、情報的な決定を行うことができる。
その結果、このような複雑な環境下での政策モデルを持たないシナリオと比較して、我々のモデルは最大40%の大幅なコスト削減につながることが示された。
関連論文リスト
- Diverse Transformer Decoding for Offline Reinforcement Learning Using Financial Algorithmic Approaches [4.364595470673757]
Portfolio Beam Search (PBS) はビームサーチ (BS) の簡便な代替手段である
我々は、推論時に逐次復号アルゴリズムに統合される不確実性を考慮した多様化機構を開発する。
D4RLベンチマークにおけるPBSの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2025-02-13T15:51:46Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Revenue Management without Demand Forecasting: A Data-Driven Approach
for Bid Price Generation [25.53238782264327]
本稿では、需要予測と最適化技術の必要性を排除したデータ駆動型の収益管理手法を提案する。
我々はニューラルネットワークアルゴリズムを用いて入札価格を将来に向けて予測する。
以上の結果から,我々のデータ駆動手法は,幅広い設定において理論的に最適(1%の収益格差)に近いままであることがわかった。
論文 参考訳(メタデータ) (2023-04-14T21:10:13Z) - Job Scheduling in Datacenters using Constraint Controlled RL [0.0]
本研究では,グリーンデータセンター環境におけるジョブスケジューリング問題に対して,PID(Proportional-Integral-Derivative)ラグランジアン法を適用した。
実験では、PIDラグランジアン法を使わずにスケジューリングポリシーよりも性能が向上した。
論文 参考訳(メタデータ) (2022-11-10T04:43:14Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Offline Reinforcement Learning for Road Traffic Control [12.251816544079306]
モデルベースの学習フレームワークであるA-DACを構築し、データ不確実性に対処するために、悲観的なコストを組み込んだデータセットからマルコフ決定プロセス(MDP)を推論する。
A-DACは、サイズやバッチ収集ポリシーによって異なる複数のデータセットを用いて、複雑な信号化ラウンドアバウトで評価される。
論文 参考訳(メタデータ) (2022-01-07T09:55:21Z) - An Experimental Design Perspective on Model-Based Reinforcement Learning [73.37942845983417]
環境からの状態遷移を観察するのは費用がかかる。
標準RLアルゴリズムは通常、学習するために多くの観測を必要とする。
本稿では,マルコフ決定過程について,状態-作用対がどの程度の情報を提供するかを定量化する獲得関数を提案する。
論文 参考訳(メタデータ) (2021-12-09T23:13:57Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Short-Term Load Forecasting Using Time Pooling Deep Recurrent Neural
Network [0.0]
再生可能エネルギー源と電気自動車などの新興負荷をスマートグリッドに統合することは、配電系統管理に不確実性をもたらす。デマンドサイドマネジメント(DSM)は、不確実性を低減するためのアプローチの一つである。
Nonintrusive Load Monitoring (NILM) のようなアプリケーションは DSM をサポートすることができるが、高解像度データの正確な予測は必要である。
高いボラティリティのため、一戸建て住宅のような単一負荷の場合、これは難しい。
論文 参考訳(メタデータ) (2021-09-26T05:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。