論文の概要: Green Resilience of Cyber-Physical Systems: Doctoral Dissertation
- arxiv url: http://arxiv.org/abs/2511.16593v1
- Date: Thu, 20 Nov 2025 17:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.771837
- Title: Green Resilience of Cyber-Physical Systems: Doctoral Dissertation
- Title(参考訳): サイバー物理システムのグリーンレジリエンス:博士論文
- Authors: Diaeddin Rimawi,
- Abstract要約: Online Collaborative AI System (OL-CAIS)は、共通の目標を達成するために、人間と共同でオンラインで学習するCPSである。
意思決定者はエネルギー負荷を抑えながら性能を回復し、レジリエンスとグリーンネスのトレードオフを生み出す必要がある。
本研究の目的は、自動状態検出のためのレジリエンスをモデル化し、グリーンネス・レジリエンストレードオフを最適化するエージェントベースのポリシーを開発し、パフォーマンスの整合性を維持するために破滅的な忘れを理解できるようにすることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber-physical systems (CPS) combine computational and physical components. Online Collaborative AI System (OL-CAIS) is a type of CPS that learn online in collaboration with humans to achieve a common goal, which makes it vulnerable to disruptive events that degrade performance. Decision-makers must therefore restore performance while limiting energy impact, creating a trade-off between resilience and greenness. This research addresses how to balance these two properties in OL-CAIS. It aims to model resilience for automatic state detection, develop agent-based policies that optimize the greenness-resilience trade-off, and understand catastrophic forgetting to maintain performance consistency. We model OL-CAIS behavior through three operational states: steady, disruptive, and final. To support recovery during disruptions, we introduce the GResilience framework, which provides recovery strategies through multi-objective optimization (one-agent), game-theoretic decision-making (two-agent), and reinforcement learning (RL-agent). We also design a measurement framework to quantify resilience and greenness. Empirical evaluation uses real and simulated experiments with a collaborative robot learning object classification from human demonstrations. Results show that the resilience model captures performance transitions during disruptions, and that GResilience policies improve green recovery by shortening recovery time, stabilizing performance, and reducing human dependency. RL-agent policies achieve the strongest results, although with a marginal increase in CO2 emissions. We also observe catastrophic forgetting after repeated disruptions, while our policies help maintain steadiness. A comparison with containerized execution shows that containerization cuts CO2 emissions by half. Overall, this research provides models, metrics, and policies that ensure the green recovery of OL-CAIS.
- Abstract(参考訳): サイバー物理システム(サイバー物理システム、CPS)は、計算コンポーネントと物理コンポーネントを組み合わせたシステムである。
Online Collaborative AI System(OL-CAIS)は、人間と共同でオンラインで学習し、共通の目標を達成するためのCPSの一種である。
そのため、意思決定者はエネルギー負荷を抑えながら性能を回復し、レジリエンスとグリーンネスのトレードオフを生み出す必要がある。
本研究は、OL-CAISにおけるこれらの2つの特性のバランスをとる方法について述べる。
自動状態検出のためのレジリエンスをモデル化し、グリーンネスとレジリエンスのトレードオフを最適化するエージェントベースのポリシーを開発し、パフォーマンスの一貫性を維持するために破滅的な忘れ物を理解することを目的としている。
OL-CAISの動作を,定常,破壊的,最終の3つの操作状態を通じてモデル化する。
本稿では,多目的最適化(一エージェント),ゲーム理論決定(二エージェント),強化学習(RLエージェント)による回復戦略を提供するGResilienceフレームワークを紹介する。
レジリエンスと緑度を定量化するための測定フレームワークも設計しています。
実験的な評価は、人間の実演からオブジェクトの分類を学習する協調ロボットを用いた実例と模擬実験を用いている。
その結果, 回復時間を短縮し, 性能を安定させ, 人的依存を減らすことにより, GResilienceポリシはグリーンリカバリを改善することがわかった。
RL-アジェント政策は、CO2排出量が極端に増加したにもかかわらず、最も強い結果を得る。
我々はまた、繰り返し破壊された後の破滅的な忘れを観察し、我々の政策は安定を維持するのに役立つ。
コンテナ化実行と比較すると、コンテナ化はCO2排出量を半分に削減することを示している。
全体として、この研究はOL-CAISのグリーンリカバリを保証するモデル、メトリクス、ポリシーを提供する。
関連論文リスト
- Human-in-the-loop Online Rejection Sampling for Robotic Manipulation [55.99788088622936]
Hi-ORSは、オンライン微調整中に負の報酬を得たサンプルをフィルタリングすることで、値推定を安定化する。
Hi-ORSは、わずか1.5時間でコンタクトリッチな操作をマスターするためのpiベースのポリシーを微調整する。
論文 参考訳(メタデータ) (2025-10-30T11:53:08Z) - BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive Clipping [69.74252624161652]
適応クリッピング(BAPO)を用いたBAlanced Policy Optimizationを提案する。
BAPOはクリッピングバウンダリを動的に調整し、適応的に正と負のコントリビューションを再バランスさせ、エントロピーを保持し、RL最適化を安定化させる。
AIME 2024とAIME 2025ベンチマークでは、7B BAPOモデルがSkyWork-OR1-7Bのようなオープンソースモデルを上回っています。
論文 参考訳(メタデータ) (2025-10-21T12:55:04Z) - Contractive Dynamical Imitation Policies for Efficient Out-of-Sample Recovery [3.549243565065057]
模倣学習(imitation learning)は、専門家の行動からポリシーを学ぶための、データ駆動型アプローチである。
OOS(Out-of-sample)領域では信頼性の低い結果が出る傾向がある。
本稿では,契約型力学系をモデルとした政策学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-10T14:28:18Z) - Cooperative Resilience in Artificial Intelligence Multiagent Systems [2.0608564715600273]
本稿では, 協調レジリエンスの明確な定義とその定量化手法を提案する。
その結果は、集団システムが破壊に直面してどのように準備し、抵抗し、回復し、幸福を維持し、変革するかを分析する上で、レジリエンス指標の重要な役割を強調している。
論文 参考訳(メタデータ) (2024-09-20T03:28:48Z) - Green Resilience of Cyber-Physical Systems [0.0]
Cyber-Physical System (CPS) は、ハードウェアコンポーネントとソフトウェアコンポーネントの両方を結合してリアルタイムサービスを実行するシステムである。
システムのレジリエンスを達成するためには、リカバリ技術が必要である。
この提案は、CPSにおけるレジリエンスとグリーンを達成するためのゲーム理論ソリューションを提案する。
論文 参考訳(メタデータ) (2023-11-09T08:29:55Z) - GResilience: Trading Off Between the Greenness and the Resilience of
Collaborative AI Systems [1.869472599236422]
本稿では, レジリエンスとグリーンネスのトレードオフが可能なCAIS回復行動を自動的に評価する手法を提案する。
本研究の目的は,最適化による1エージェント決定問題とゲーム理論による2エージェント決定問題である。
論文 参考訳(メタデータ) (2023-11-08T10:01:39Z) - Revisiting Plasticity in Visual Reinforcement Learning: Data, Modules and Training Stages [56.98243487769916]
ニューラルネットワークが新しいデータで進化する能力である塑性は、高性能でサンプル効率のよい視覚強化学習に不可欠である。
本稿では,批評家の可塑性レベルに基づいてリプレイ率を動的に調整するAdaptive RRを提案する。
論文 参考訳(メタデータ) (2023-10-11T12:05:34Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。