論文の概要: Control-Optimized Deep Reinforcement Learning for Artificially Intelligent Autonomous Systems
- arxiv url: http://arxiv.org/abs/2507.00268v1
- Date: Mon, 30 Jun 2025 21:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.932033
- Title: Control-Optimized Deep Reinforcement Learning for Artificially Intelligent Autonomous Systems
- Title(参考訳): 人工知能自律システムのための制御最適化深部強化学習
- Authors: Oren Fivel, Matan Rudman, Kobi Cohen,
- Abstract要約: 深層強化学習(DRL)は、機械学習とAIにおいて、複雑な意思決定のための強力なツールとなっている。
従来の手法では、エージェントが選択したアクションと実際のシステム応答の間の不確実性や逸脱を見越して、完璧なアクション実行を仮定することが多い。
この作業は、アクション実行ミスマッチを明示的にモデル化し補償する、制御最適化DRLフレームワークを開発することで、AIを前進させる。
- 参考スコア(独自算出の注目度): 8.766411351797885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has become a powerful tool for complex decision-making in machine learning and AI. However, traditional methods often assume perfect action execution, overlooking the uncertainties and deviations between an agent's selected actions and the actual system response. In real-world applications, such as robotics, mechatronics, and communication networks, execution mismatches arising from system dynamics, hardware constraints, and latency can significantly degrade performance. This work advances AI by developing a novel control-optimized DRL framework that explicitly models and compensates for action execution mismatches, a challenge largely overlooked in existing methods. Our approach establishes a structured two-stage process: determining the desired action and selecting the appropriate control signal to ensure proper execution. It trains the agent while accounting for action mismatches and controller corrections. By incorporating these factors into the training process, the AI agent optimizes the desired action with respect to both the actual control signal and the intended outcome, explicitly considering execution errors. This approach enhances robustness, ensuring that decision-making remains effective under real-world uncertainties. Our approach offers a substantial advancement for engineering practice by bridging the gap between idealized learning and real-world implementation. It equips intelligent agents operating in engineering environments with the ability to anticipate and adjust for actuation errors and system disturbances during training. We evaluate the framework in five widely used open-source mechanical simulation environments we restructured and developed to reflect real-world operating conditions, showcasing its robustness against uncertainties and offering a highly practical and efficient solution for control-oriented applications.
- Abstract(参考訳): 深層強化学習(DRL)は、機械学習とAIにおいて、複雑な意思決定のための強力なツールとなっている。
しかし、従来の手法では、エージェントが選択したアクションと実際のシステム応答の間の不確実性や逸脱を見越して、完璧なアクション実行を仮定することが多い。
ロボット工学、メカトロニクス、通信ネットワークといった現実世界のアプリケーションでは、システムダイナミクス、ハードウェアの制約、レイテンシによる実行ミスマッチは、性能を著しく低下させる可能性がある。
この作業は、アクション実行ミスマッチを明示的にモデル化し、補償する、制御最適化DRLフレームワークを開発することで、AIを前進させる。
提案手法は,所望の動作を決定し,適切な実行を保証するための適切な制御信号を選択するという,構造化された2段階のプロセスを確立する。
エージェントをトレーニングし、アクションミスマッチとコントローラの修正を考慮に入れます。
これらの要因をトレーニングプロセスに組み込むことで、AIエージェントは、実行エラーを明示的に考慮して、実際の制御信号と意図した結果の両方に関して、所望のアクションを最適化する。
このアプローチは堅牢性を高め、現実世界の不確実性の下で意思決定が有効であることを保証する。
われわれの手法は、理想的な学習と実世界の実践のギャップを埋めることによって、工学的な実践にかなりの進歩をもたらす。
エンジニアリング環境で動作しているインテリジェントエージェントに、トレーニング中にアクティベーションエラーやシステム障害を予測し、調整する能力を提供する。
筆者らは,本フレームワークを,現実世界の動作条件を反映して構築・構築した5つのオープンソースの機械シミュレーション環境において評価し,不確実性に対する堅牢性を示し,制御指向アプリケーションに極めて実用的で効率的なソリューションを提供する。
関連論文リスト
- Towards More Efficient, Robust, Instance-adaptive, and Generalizable Sequential Decision making [9.955716251167424]
私の仕事は強化学習(RL)、多腕バンディット、その応用に焦点を当てています。
私の研究は、より効率的で堅牢で、インスタンス適応的で、一般化可能なシーケンシャルな意思決定アルゴリズムを開発することを目的としています。
論文 参考訳(メタデータ) (2025-04-12T12:17:20Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Learning to Generate All Feasible Actions [4.333208181196761]
アクションマッピングは、学習プロセスを2つのステップに分割する新しいアプローチである。
本稿では、実現可能性モデルの自己教師型クエリにより、実現可能なすべてのアクションを生成することを学ぶことで、実現可能性部分に焦点を当てる。
エージェントが接続不能な実行可能なアクションセット間でアクションを生成する能力を示す。
論文 参考訳(メタデータ) (2023-01-26T23:15:51Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - Differentiable Constrained Imitation Learning for Robot Motion Planning
and Control [0.26999000177990923]
我々は,交通エージェントのシミュレーションだけでなく,ロボットの動作計画と制御を制約するフレームワークを開発した。
モバイルロボットと自動運転アプリケーションに焦点をあてる。
移動ロボットナビゲーションと自動走行のシミュレーション実験は,提案手法の性能を示す証拠となる。
論文 参考訳(メタデータ) (2022-10-21T08:19:45Z) - Safe-Critical Modular Deep Reinforcement Learning with Temporal Logic
through Gaussian Processes and Control Barrier Functions [3.5897534810405403]
強化学習(Reinforcement Learning, RL)は,現実のアプリケーションに対して限られた成功を収める,有望なアプローチである。
本稿では,複数の側面からなる学習型制御フレームワークを提案する。
ECBFをベースとしたモジュラーディープRLアルゴリズムは,ほぼ完全な成功率を達成し,高い確率で安全性を保護することを示す。
論文 参考訳(メタデータ) (2021-09-07T00:51:12Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。