論文の概要: The Fusion of Deep Reinforcement Learning and Edge Computing for Real-time Monitoring and Control Optimization in IoT Environments
- arxiv url: http://arxiv.org/abs/2403.07923v1
- Date: Wed, 28 Feb 2024 12:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 05:50:41.749848
- Title: The Fusion of Deep Reinforcement Learning and Edge Computing for Real-time Monitoring and Control Optimization in IoT Environments
- Title(参考訳): IoT環境におけるリアルタイムモニタリングと制御最適化のための深層強化学習とエッジコンピューティングの融合
- Authors: Jingyu Xu, Weixiang Wan, Linying Pan, Wenjian Sun, Yuxiang Liu,
- Abstract要約: 本稿では,深層強化学習とエッジコンピューティングに基づく最適化制御システムを提案する。
その結果、このアプローチは、クラウドエッジ通信のレイテンシを低減し、異常な状況に対する応答を加速し、システム障害率を低減し、平均的な機器運用時間を延長し、手作業によるメンテナンスと置換のコストを削減できることを示した。
- 参考スコア(独自算出の注目度): 2.0380092516669235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to the demand for real-time performance and control quality in industrial Internet of Things (IoT) environments, this paper proposes an optimization control system based on deep reinforcement learning and edge computing. The system leverages cloud-edge collaboration, deploys lightweight policy networks at the edge, predicts system states, and outputs controls at a high frequency, enabling monitoring and optimization of industrial objectives. Additionally, a dynamic resource allocation mechanism is designed to ensure rational scheduling of edge computing resources, achieving global optimization. Results demonstrate that this approach reduces cloud-edge communication latency, accelerates response to abnormal situations, reduces system failure rates, extends average equipment operating time, and saves costs for manual maintenance and replacement. This ensures real-time and stable control.
- Abstract(参考訳): 産業用モノのインターネット(IoT)環境におけるリアルタイム性能と制御品質の需要に対応するため,深層強化学習とエッジコンピューティングに基づく最適化制御システムを提案する。
このシステムはクラウドとエッジのコラボレーションを活用し、エッジに軽量なポリシーネットワークをデプロイし、システムの状態を予測し、高い頻度で制御を出力し、産業目的の監視と最適化を可能にする。
さらに、動的リソース割り当て機構は、エッジコンピューティングリソースの合理的なスケジューリングを確実にし、グローバルな最適化を実現するように設計されている。
その結果、このアプローチは、クラウドエッジ通信のレイテンシを低減し、異常な状況に対する応答を加速し、システム障害率を低減し、平均的な機器運用時間を延長し、手作業によるメンテナンスと置換のコストを削減できることを示した。
これにより、リアルタイムおよび安定した制御が保証される。
関連論文リスト
- Constrained Reinforcement Learning for Adaptive Controller Synchronization in Distributed SDN [7.277944770202078]
この研究は、AR/VRタスクのオフロードにおいて、高いレイテンシ閾値を保証するために、価値ベースとポリシーベースの手法の両方を含む深層強化学習(DRL)技術を検討することに焦点を当てる。
評価結果は,レイテンシやロードバランシングといった個々のネットワークメトリクスを最適化する上で,値ベースの手法が優れているのに対して,ポリシベースのアプローチは,突然のネットワーク変更や再構成に適応する上で,ロバスト性が高いことを示している。
論文 参考訳(メタデータ) (2024-01-21T21:57:22Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled
Prescriptive Maintenance Framework [62.73424880653293]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - A Fast Task Offloading Optimization Framework for IRS-Assisted
Multi-Access Edge Computing System [14.82292289994152]
我々は,IOPO(Iterative Order-Preserving Policy Optimization)と呼ばれるディープラーニングに基づく最適化フレームワークを提案する。
IOPOはエネルギー効率のよいタスクオフロード決定をミリ秒で生成できる。
実験の結果,提案フレームワークは短時間でエネルギー効率の高いタスクオフロード決定を生成できることがわかった。
論文 参考訳(メタデータ) (2023-07-17T13:32:02Z) - Lyapunov-Driven Deep Reinforcement Learning for Edge Inference Empowered
by Reconfigurable Intelligent Surfaces [30.1512069754603]
本稿では,ワイヤレスエッジにおけるエネルギー効率,低レイテンシ,高精度な推論のための新しいアルゴリズムを提案する。
本稿では,新しいデータを一連のデバイスで連続的に生成・収集し,動的キューシステムを通じて処理するシナリオについて考察する。
論文 参考訳(メタデータ) (2023-05-18T12:46:42Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Accuracy-Guaranteed Collaborative DNN Inference in Industrial IoT via
Deep Reinforcement Learning [10.223526707269537]
計算集約型ディープニューラルネットワーク(DNN)推論サービスをサポートするためには,IoT(Industrial Internet of Things)デバイスとエッジネットワークのコラボレーションが不可欠だ。
本稿では,産業用IoTネットワークにおける協調推論問題について検討する。
論文 参考訳(メタデータ) (2022-12-31T05:53:17Z) - Online Learning for Orchestration of Inference in Multi-User
End-Edge-Cloud Networks [3.6076391721440633]
ディープラーニングのためのコラボレーション型のエッジクラウドコンピューティングは、さまざまなパフォーマンスと効率を提供する。
本稿では、最適オフロードポリシーを学習する強化学習に基づく計算オフロードソリューションを提案する。
我々のソリューションは、平均応答時間において、0.9%未満の精度で、最先端技術と比較して35%のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-02-21T21:41:29Z) - Stable Online Control of Linear Time-Varying Systems [49.41696101740271]
COCO-LQは、大規模なLTVシステムの入出力安定性を保証する効率的なオンライン制御アルゴリズムである。
COCO-LQの性能を実証実験とパワーシステム周波数制御の両例で実証した。
論文 参考訳(メタデータ) (2021-04-29T06:18:49Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。