論文の概要: Exploring Equity of Climate Policies using Multi-Agent Multi-Objective Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.01115v1
- Date: Fri, 02 May 2025 08:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.974915
- Title: Exploring Equity of Climate Policies using Multi-Agent Multi-Objective Reinforcement Learning
- Title(参考訳): マルチエージェント多目的強化学習を用いた気候政策の探索
- Authors: Palok Biswas, Zuzanna Osika, Isidoro Tamassia, Adit Whorra, Jazmin Zatarain-Salazar, Jan Kwakkel, Frans A. Oliehoek, Pradeep K. Murukannaiah,
- Abstract要約: 我々は,統合アセスメントモデルと多目的マルチエージェント強化学習を統合した最初のフレームワークであるジャスティスを紹介する。
複数の目的を取り入れることで、司法は気候と経済の目標のバランスを保ちながら株式に光を当てる政策レコメンデーションを生成する。
- 参考スコア(独自算出の注目度): 8.711832374898187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Addressing climate change requires coordinated policy efforts of nations worldwide. These efforts are informed by scientific reports, which rely in part on Integrated Assessment Models (IAMs), prominent tools used to assess the economic impacts of climate policies. However, traditional IAMs optimize policies based on a single objective, limiting their ability to capture the trade-offs among economic growth, temperature goals, and climate justice. As a result, policy recommendations have been criticized for perpetuating inequalities, fueling disagreements during policy negotiations. We introduce Justice, the first framework integrating IAM with Multi-Objective Multi-Agent Reinforcement Learning (MOMARL). By incorporating multiple objectives, Justice generates policy recommendations that shed light on equity while balancing climate and economic goals. Further, using multiple agents can provide a realistic representation of the interactions among the diverse policy actors. We identify equitable Pareto-optimal policies using our framework, which facilitates deliberative decision-making by presenting policymakers with the inherent trade-offs in climate and economic policy.
- Abstract(参考訳): 気候変動に対処するには、世界中の国の協調的な政策努力が必要である。
これらの取り組みは、気候政策の経済的影響を評価するために使われる顕著なツールである統合アセスメントモデル(IAM)に依存している科学報告によって知らされる。
しかし、伝統的なIAMは単一目的に基づいて政策を最適化し、経済成長、温度目標、気候正義の間のトレードオフを捉える能力を制限する。
その結果、政策レコメンデーションは不平等を継続し、政策交渉における不一致を助長しているとして批判されている。
我々は,IAMと多目的マルチエージェント強化学習(MOMARL)を統合した最初のフレームワークであるジャスティスを紹介する。
複数の目的を取り入れることで、司法は気候と経済の目標のバランスを保ちながら株式に光を当てる政策レコメンデーションを生成する。
さらに、複数のエージェントを使用することで、多様なポリシーアクター間の相互作用を現実的に表現することができる。
我々は、気候・経済政策に固有のトレードオフを政策立案者に提示することで、熟考的な意思決定を促進する枠組みを用いて、公平なパレート最適政策を特定する。
関連論文リスト
- Multi-Agent Reinforcement Learning Simulation for Environmental Policy Synthesis [5.738989367102034]
気候政策の開発は、深い不確実性、複雑なシステムのダイナミクス、および競合する利害関係者による重大な課題に直面している。
本稿では,これらの制約に対処するため,MARL(Multi-Agent Reinforcement Learning)を用いた気候シミュレーションのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-17T09:18:04Z) - Crafting desirable climate trajectories with RL explored socio-environmental simulations [3.554161433683967]
統合アセスメントモデル(IAM)は、社会、経済、環境シミュレーションを組み合わせて、潜在的な政策効果を予測する。
従来の解決法を置き換えるために強化学習(RL)を用いた最近の予備研究は、不確実でノイズの多いシナリオにおける意思決定において有望な結果を示している。
我々は、様々な利害関係者や国家間の複雑な相互作用の相互作用をモデル化するための予備分析として、複数の対話的RLエージェントを導入することにより、この研究を拡大する。
論文 参考訳(メタデータ) (2024-10-09T13:21:50Z) - Reparameterized Policy Learning for Multimodal Trajectory Optimization [61.13228961771765]
本研究では,高次元連続行動空間における強化学習のためのパラメータ化政策の課題について検討する。
本稿では,連続RLポリシーを最適軌道の生成モデルとしてモデル化する原理的フレームワークを提案する。
本稿では,マルチモーダルポリシーパラメータ化と学習世界モデルを活用した実用的モデルベースRL手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T09:05:46Z) - AI For Global Climate Cooperation 2023 Competition Proceedings [77.07135605362795]
国際機関が国際気候協定の遵守を保証できない。
RICE-NはAIエージェントを使用した地域意思決定のモデリングをサポートする。
IAMは、これらの決定の気候・経済的な影響を未来にモデル化する。
論文 参考訳(メタデータ) (2023-07-10T20:05:42Z) - Subjective-objective policy making approach: Coupling of resident-values
multiple regression analysis with value-indices, multi-agent-based simulation [0.0]
本研究では,より優れた政策を選択するために,新たな主観的・客観的政策評価手法を提案する。
提案手法は住民アンケートの結果の回帰分析に基づいて主観的対象関数を確立する。
いくつかのポリシーを比較するために新しいアプローチを使用することで、利害関係者の意志を様々な価値で具体的に表現することができる。
論文 参考訳(メタデータ) (2023-06-14T02:33:32Z) - On the Value of Myopic Behavior in Policy Reuse [67.37788288093299]
未知のシナリオで学習戦略を活用することは、人間の知性の基本である。
本稿では,Selectivemyopic bEhavior Control(SMEC)というフレームワークを提案する。
SMECは、事前ポリシーの共有可能な短期的行動とタスクポリシーの長期的行動を適応的に集約し、協調的な決定につながる。
論文 参考訳(メタデータ) (2023-05-28T03:59:37Z) - Well-being policy evaluation methodology based on WE pluralism [0.0]
本研究は,客観的指標に基づく多元論から,主観的文脈を強調する概念的多元論へ移行する。
狭い範囲のWEコンセンサスにウェルビーイングと共同ファクトフィニングを組み合わせることにより、政策評価法を定式化する。
論文 参考訳(メタデータ) (2023-05-08T06:51:43Z) - AI for Global Climate Cooperation: Modeling Global Climate Negotiations,
Agreements, and Long-Term Cooperation in RICE-N [75.67460895629348]
n個の戦略エージェントによる気候変動緩和に関する長期的な協力は、複雑なゲーム理論の問題を引き起こす。
地球温暖化と経済をシミュレートするマルチリージョン統合アセスメントモデルであるRICE-Nを紹介する。
本稿では,多エージェント強化学習を用いて理性エージェントをRICE-Nで訓練する方法について述べる。
論文 参考訳(メタデータ) (2022-08-15T04:38:06Z) - Influencing Long-Term Behavior in Multiagent Reinforcement Learning [59.98329270954098]
時間的アプローチが無限に近づくと、他のエージェントの制限ポリシーを考えるための原則的枠組みを提案する。
具体的には、各エージェントの行動が他のエージェントが行うポリシーの制限セットに与える影響を直接考慮し、各エージェントの平均報酬を最大化する新しい最適化目標を開発する。
我々の遠視評価により、様々な領域における最先端のベースラインよりも長期的性能が向上した。
論文 参考訳(メタデータ) (2022-03-07T17:32:35Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。