論文の概要: Multi-Objective Reinforcement Learning for Energy-Efficient Industrial Control
- arxiv url: http://arxiv.org/abs/2505.07607v1
- Date: Mon, 12 May 2025 14:28:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.428319
- Title: Multi-Objective Reinforcement Learning for Energy-Efficient Industrial Control
- Title(参考訳): エネルギー効率の良い産業制御のための多目的強化学習
- Authors: Georg Schäfer, Raphael Seliger, Jakob Rehrl, Stefan Huber, Simon Hirlaender,
- Abstract要約: 産業自動化は、環境やコストの制約と性能のバランスをとるためのエネルギー効率の高い制御戦略をますます要求している。
本研究では,クアンサーエアロ2の1自由度試験におけるエネルギー効率向上のための多目的強化学習(MORL)フレームワークを提案する。
予備実験では、ピッチトラッキングと省エネの間のトレードオフに対するエネルギーのペナルティ重量、アルファの影響について検討している。
- 参考スコア(独自算出の注目度): 0.6990493129893112
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Industrial automation increasingly demands energy-efficient control strategies to balance performance with environmental and cost constraints. In this work, we present a multi-objective reinforcement learning (MORL) framework for energy-efficient control of the Quanser Aero 2 testbed in its one-degree-of-freedom configuration. We design a composite reward function that simultaneously penalizes tracking error and electrical power consumption. Preliminary experiments explore the influence of varying the Energy penalty weight, alpha, on the trade-off between pitch tracking and energy savings. Our results reveal a marked performance shift for alpha values between 0.0 and 0.25, with non-Pareto optimal solutions emerging at lower alpha values, on both the simulation and the real system. We hypothesize that these effects may be attributed to artifacts introduced by the adaptive behavior of the Adam optimizer, which could bias the learning process and favor bang-bang control strategies. Future work will focus on automating alpha selection through Gaussian Process-based Pareto front modeling and transitioning the approach from simulation to real-world deployment.
- Abstract(参考訳): 産業自動化は、環境やコストの制約と性能のバランスをとるためのエネルギー効率の高い制御戦略をますます要求している。
本研究では,その1自由度構成におけるクアンサーエアロ2テストベッドのエネルギー効率制御のための多目的強化学習(MORL)フレームワークを提案する。
追従誤差と電力消費を同時に補償する複合報酬関数を設計する。
予備実験では、ピッチトラッキングと省エネの間のトレードオフに対するエネルギーのペナルティ重量、アルファの影響について検討している。
その結果, シミュレーションと実システムの両方において, 非パレート最適解が低いα値で出現し, 0.0から0.25に顕著な性能変化が認められた。
これらの効果は、Adamオプティマイザの適応的振る舞いによって導入された成果物によるもので、学習プロセスに偏りがあり、バンバンコントロール戦略を支持する可能性がある、という仮説を立てる。
今後は、Gaussian ProcessベースのParetoフロントモデリングによるアルファ選択の自動化と、シミュレーションから現実のデプロイメントへの移行に注力する予定である。
関連論文リスト
- LAPSO: A Unified Optimization View for Learning-Augmented Power System Operations [3.754570687412345]
本稿では,LAPSO(Learning-Augmented Power System Operations)の総合的枠組みを提案する。
LAPSOは運用段階を中心におり、時間的にサイロ化された電力系統のタスクの境界線を断ち切ることを目的としている。
学習可能なコンポーネントで既存のパワーシステム最適化モデルを自動的に拡張するために、専用のPythonパッケージ-lapsoが導入された。
論文 参考訳(メタデータ) (2025-05-08T13:00:24Z) - Optimisation of the Accelerator Control by Reinforcement Learning: A Simulation-Based Approach [0.615163395430594]
本研究では,Reinforcement Learning(RL)と統合されたシミュレーションベースのフレームワークの構築を目的とする。
シミュレーションバックエンドとして textttElegant を用い,RL アルゴリズムとアクセルシミュレーションの相互作用を簡略化する Python ラッパーを開発した。
提案したRLフレームワークは物理学者のコパイロットとして機能し,ビームライン性能の向上,チューニング時間短縮,運用効率の向上など,インテリジェントな提案を行う。
論文 参考訳(メタデータ) (2025-03-12T16:57:52Z) - Coordinated Power Smoothing Control for Wind Storage Integrated System with Physics-informed Deep Reinforcement Learning [13.266525968718275]
電力平滑化制御(PSC)を用いた風力発電統合システムは, 効率と信頼性を両立させる有望なソリューションとして浮上している。
既存のPSC戦略は、バッテリと風力タービンの複雑な制御相互作用を見落とし、ウェイク効果やバッテリ劣化コストを考慮していない。
本稿では,これらの課題を効果的に解決するために,階層レベルの新しい協調制御フレームワークを考案した。
論文 参考訳(メタデータ) (2024-12-17T11:37:46Z) - Sim-to-Real Transfer of Adaptive Control Parameters for AUV
Stabilization under Current Disturbance [1.099532646524593]
本稿では,最大エントロピー深層強化学習フレームワークを古典的なモデルベース制御アーキテクチャと組み合わせ,適応制御系を定式化する新しい手法を提案する。
本フレームワークでは,バイオインスパイアされた体験再生機構,拡張されたドメインランダム化手法,物理プラットフォーム上で実行される評価プロトコルなどを含むSim-to-Real転送戦略を導入する。
実験により,AUVの準最適モデルから有能なポリシを効果的に学習し,実車への移動時の制御性能を3倍に向上することを示した。
論文 参考訳(メタデータ) (2023-10-17T08:46:56Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Bayesian Optimization Meets Hybrid Zero Dynamics: Safe Parameter
Learning for Bipedal Locomotion Control [17.37169551675587]
両足歩行ロボットの移動制御のためのマルチドメイン制御パラメータ学習フレームワークを提案する。
BOを利用して、HZDベースのコントローラで使用される制御パラメータを学習する。
次に、物理ロボットに学習プロセスを適用し、シミュレーションで学習した制御パラメータの修正を学習する。
論文 参考訳(メタデータ) (2022-03-04T20:48:17Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。