論文の概要: Greener Deep Reinforcement Learning: Analysis of Energy and Carbon Efficiency Across Atari Benchmarks
- arxiv url: http://arxiv.org/abs/2509.05273v1
- Date: Fri, 05 Sep 2025 17:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.670431
- Title: Greener Deep Reinforcement Learning: Analysis of Energy and Carbon Efficiency Across Atari Benchmarks
- Title(参考訳): よりグリーンな深層強化学習:アタリベンチマークにおけるエネルギーと炭素効率の分析
- Authors: Jason Gardner, Ayan Dutta, Swapnoneel Roy, O. Patrick Kreidl, Ladislau Boloni,
- Abstract要約: DRLアルゴリズムのエネルギー要求、温室効果ガスの排出、および金銭的コストは、まだ明らかにされていない。
本研究では、7つの最先端DRLアルゴリズムのエネルギー消費に関する系統的なベンチマーク研究を行う。
その結果、アルゴリズム間でエネルギー効率とトレーニングコストのかなりの変化が明らかとなった。
- 参考スコア(独自算出の注目度): 3.340523650338255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing computational demands of deep reinforcement learning (DRL) have raised concerns about the environmental and economic costs of training large-scale models. While algorithmic efficiency in terms of learning performance has been extensively studied, the energy requirements, greenhouse gas emissions, and monetary costs of DRL algorithms remain largely unexplored. In this work, we present a systematic benchmarking study of the energy consumption of seven state-of-the-art DRL algorithms, namely DQN, TRPO, A2C, ARS, PPO, RecurrentPPO, and QR-DQN, implemented using Stable Baselines. Each algorithm was trained for one million steps each on ten Atari 2600 games, and power consumption was measured in real-time to estimate total energy usage, CO2-Equivalent emissions, and electricity cost based on the U.S. national average electricity price. Our results reveal substantial variation in energy efficiency and training cost across algorithms, with some achieving comparable performance while consuming up to 24% less energy (ARS vs. DQN), emitting nearly 68% less CO2, and incurring almost 68% lower monetary cost (QR-DQN vs. RecurrentPPO) than less efficient counterparts. We further analyze the trade-offs between learning performance, training time, energy use, and financial cost, highlighting cases where algorithmic choices can mitigate environmental and economic impact without sacrificing learning performance. This study provides actionable insights for developing energy-aware and cost-efficient DRL practices and establishes a foundation for incorporating sustainability considerations into future algorithmic design and evaluation.
- Abstract(参考訳): 深層強化学習(DRL)の計算需要の増大は、大規模モデルを訓練する際の環境・経済コストに対する懸念を引き起こしている。
学習性能の観点からアルゴリズムの効率性は広く研究されているが、エネルギー要求、温室効果ガスの排出、DRLアルゴリズムの金銭的コストは明らかにされていない。
本研究では,DQN, TRPO, A2C, ARS, PPO, RecurrentPPO, QR-DQNの7つの最先端DRLアルゴリズムのエネルギー消費に関する系統的ベンチマークを行った。
それぞれのアルゴリズムは、Atari 2600の10試合で100万歩の訓練を受け、消費電力をリアルタイムで測定し、全米平均電力価格に基づく総エネルギー使用量、CO2等価排出量、電力コストを見積もった。
その結果,アルゴリズム間のエネルギー効率とトレーニングコストのかなりの変化が明らかとなり,最大24%のエネルギー消費(ARS vs. DQN),約68%のCO2の排出,約68%の金銭コスト(QR-DQN vs. RecurrentPPO)が効率の低いものよりも低下した。
さらに、学習性能、トレーニング時間、エネルギー使用量、財務コストのトレードオフを分析し、学習性能を犠牲にすることなく、アルゴリズムによる選択が環境や経済への影響を軽減できる事例を強調した。
本研究は、省エネ・コスト効率のDRLプラクティスを開発するための実用的な知見を提供し、将来的なアルゴリズム設計と評価に持続可能性を考慮した基盤を確立する。
関連論文リスト
- Deep Reinforcement Learning for Real-Time Green Energy Integration in Data Centers [0.0]
本稿では,eコマースデータセンターを対象とした,DRL(Deep Reinforcement Learning)最適化エネルギー管理システムの実装について検討する。
提案システムは, 再生可能エネルギー源, エネルギー貯蔵, グリッド電力の統合を動的に管理し, リアルタイムの変動エネルギー利用に適応する。
論文 参考訳(メタデータ) (2025-07-24T00:59:56Z) - Game-Theoretic Deep Reinforcement Learning to Minimize Carbon Emissions and Energy Costs for AI Inference Workloads in Geo-Distributed Data Centers [3.3379026542599934]
この研究は、地理分散データセンターにおけるAI推論ワークロードの分散を最適化するために、ゲーム理論(GT)と深層強化学習(DRL)を組み合わせたユニークなアプローチを導入する。
提案手法は,非協調型ゲーム理論の原理をDRLフレームワークに統合し,データセンターが作業負荷配分に関するインテリジェントな決定を行えるようにする。
論文 参考訳(メタデータ) (2024-04-01T20:13:28Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Optimizing Attention and Cognitive Control Costs Using Temporally-Layered Architectures [0.9831489366502302]
生物学的制御は、計算エネルギー支出と決定頻度を最適化しながら、顕著な性能を達成する。
我々は,強化学習環境においてエージェントが利用できる決定数や計算エネルギーを制限する決定境界マルコフ決定プロセス(DB-MDP)を提案する。
生物学的に着想を得たTLA(Temporally Layered Architecture)を導入し、エージェントが時間スケールとエネルギー要求の異なる2つの層を通じて計算コストを管理できるようにする。
論文 参考訳(メタデータ) (2023-05-30T02:59:06Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Eco2AI: carbon emissions tracking of machine learning models as the
first step towards sustainable AI [47.130004596434816]
eco2AIでは、エネルギー消費の追跡と地域CO2排出量の正当性に重点を置いている。
モチベーションは、サステナブルAIとグリーンAI経路の両方で、AIベースの温室効果ガスの隔離サイクルの概念からもたらされる。
論文 参考訳(メタデータ) (2022-07-31T09:34:53Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Full-Cycle Energy Consumption Benchmark for Low-Carbon Computer Vision [31.781943982148025]
我々は,効率的なコンピュータビジョンモデルのための最初の大規模エネルギー消費ベンチマークを示す。
モデル利用強度の異なる全サイクルエネルギー消費を明示的に評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2021-08-30T18:22:36Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Towards the Systematic Reporting of the Energy and Carbon Footprints of
Machine Learning [68.37641996188133]
我々は、リアルタイムエネルギー消費と二酸化炭素排出量を追跡するための枠組みを導入する。
エネルギー効率のよい強化学習アルゴリズムのためのリーダーボードを作成します。
炭素排出量削減とエネルギー消費削減のための戦略を提案する。
論文 参考訳(メタデータ) (2020-01-31T05:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。