論文の概要: Climate Adaptation with Reinforcement Learning: Economic vs. Quality of Life Adaptation Pathways
- arxiv url: http://arxiv.org/abs/2511.03243v1
- Date: Wed, 05 Nov 2025 07:09:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.36817
- Title: Climate Adaptation with Reinforcement Learning: Economic vs. Quality of Life Adaptation Pathways
- Title(参考訳): 強化学習による気候適応:経済対生活適応の質
- Authors: Miguel Costa, Arthur Vandervoort, Martin Drews, Karyn Morrissey, Francisco C. Pereira,
- Abstract要約: 強化学習は、不確実な条件下で適応経路を特定するのに有用なツールである。
我々は,統合的アセスメントモデル (IAM) を用いて, 降水モデルと洪水モデルを結合し, 生活の質(QoL) , 交通, インフラの被害などの観点から, 洪水の影響を計算する。
以上の結果から,QoLが経済的影響よりも優先されるモデルでは,適応支出が増加し,研究領域にまたがる支出の分布がさらに大きくなることが示唆された。
- 参考スコア(独自算出の注目度): 2.1499528348377535
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Climate change will cause an increase in the frequency and severity of flood events, prompting the need for cohesive adaptation policymaking. Designing effective adaptation policies, however, depends on managing the uncertainty of long-term climate impacts. Meanwhile, such policies can feature important normative choices that are not always made explicit. We propose that Reinforcement Learning (RL) can be a useful tool to both identify adaptation pathways under uncertain conditions while it also allows for the explicit modelling (and consequent comparison) of different adaptation priorities (e.g. economic vs. wellbeing). We use an Integrated Assessment Model (IAM) to link together a rainfall and flood model, and compute the impacts of flooding in terms of quality of life (QoL), transportation, and infrastructure damage. Our results show that models prioritising QoL over economic impacts results in more adaptation spending as well as a more even distribution of spending over the study area, highlighting the extent to which such normative assumptions can alter adaptation policy. Our framework is publicly available: https://github.com/MLSM-at-DTU/maat_qol_framework.
- Abstract(参考訳): 気候変動によって洪水の頻度と深刻度が増加し、密集した適応政策の必要性が生じる。
しかし、効果的な適応政策を設計することは、長期的な気候影響の不確実性を管理することに依存している。
一方、このようなポリシーは必ずしも明示されていない重要な規範的選択を特徴付けることができる。
強化学習(Reinforcement Learning, RL)は、不確実な条件下で適応経路を識別し、異なる適応優先順位(例えば、経済対幸福)の明示的なモデリング(およびそれに伴う比較)を可能にするのに有用である。
我々は,統合的アセスメントモデル (IAM) を用いて, 降水モデルと洪水モデルを結合し, 生活の質(QoL) , 交通, インフラの被害などの観点から, 洪水の影響を計算する。
以上の結果から,QoLが経済的影響よりも優先されるモデルでは,適応支出が増加し,また,研究領域における支出の分布もさらに大きくなり,規範的仮定が適応政策を変化させる可能性も浮き彫りにされた。
私たちのフレームワークは、https://github.com/MLSM-at-DTU/maat_qol_framework.comで公開されています。
関連論文リスト
- Incorporating Quality of Life in Climate Adaptation Planning via Reinforcement Learning [2.1499528348377535]
強化学習(Reinforcement Learning, RL)は、複雑で動的で不確実な問題に対処する上で、大きな可能性を秘めている。
我々はRLを用いて、長期にわたってどの気候適応経路が生活の質を高めるかを特定する。
予備的な結果は,本手法が最適適応の学習に有効であることが示唆され,他の現実的かつ現実的な計画戦略よりも優れていた。
論文 参考訳(メタデータ) (2025-11-05T07:00:55Z) - Stabilizing Policy Gradients for Sample-Efficient Reinforcement Learning in LLM Reasoning [77.92320830700797]
強化学習は、大規模言語モデルの推論機能を実現する上で中心的な役割を果たしてきた。
本稿では,ポリシー更新時の曲率情報を追跡し,活用するトラクタブルな計算フレームワークを提案する。
アルゴリズムであるCurvature-Aware Policy Optimization (CAPO)は、不安定な更新に寄与するサンプルを特定し、それらをマスクアウトする。
論文 参考訳(メタデータ) (2025-10-01T12:29:32Z) - Using Reinforcement Learning to Integrate Subjective Wellbeing into Climate Adaptation Decision Making [3.3024854970378317]
我々はコペンハーゲンにおける気候適応のための意思決定支援ツールとして強化学習を利用する多モジュールフレームワークを提案する。
本フレームワークは,長期降雨予測,洪水モデリング,交通アクセシビリティ,健全なモデリングの4つの相互接続コンポーネントを統合している。
論文 参考訳(メタデータ) (2025-04-14T09:34:12Z) - Climate Adaptation with Reinforcement Learning: Experiments with Flooding and Transportation in Copenhagen [3.4447242282168777]
洪水は交通インフラを損傷させ、モビリティを阻害し、都市がリスクの増大に適応する必要性を浮き彫りにする。
本研究では,Reinforcement Learning(RL)を用いて,最も効果的なタイミングと実施場所を特定する。
当社の枠組みは,将来の降雨や洪水の気候変動予測を統合し,都市全体の自動車化旅行をモデル化し,インフラと移動性に対する直接的および間接的な影響を定量化する。
論文 参考訳(メタデータ) (2024-09-27T09:18:57Z) - Efficient Localized Adaptation of Neural Weather Forecasting: A Case Study in the MENA Region [62.09891513612252]
地域レベルのダウンストリームタスクに特化して、リミテッド・エリア・モデリングに焦点を合わせ、モデルをトレーニングします。
我々は,気象予報が水資源の管理,農業,極度の気象事象の影響軽減に重要であるという,気象学的課題からMENA地域を考察する。
本研究では,パラメータ効率のよい微調整手法,特にローランド適応(LoRA)とその変種を統合することの有効性を検証することを目的とした。
論文 参考訳(メタデータ) (2024-09-11T19:31:56Z) - Dichotomy of Control: Separating What You Can Control from What You
Cannot [129.62135987416164]
政策の制御(行動)と政策の制御(環境)以外のメカニズムを分離する将来の条件付き教師あり学習フレームワークを提案する。
我々は,DoCが条件付入力と整合したポリシを出力し,学習したポリシを所望のハイリターン未来結果に条件付けすることで,高リターン行動が正しく引き起こされることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:49:56Z) - ClimateGAN: Raising Climate Change Awareness by Generating Images of
Floods [89.61670857155173]
実画像上でのリアルな洪水をシミュレートする手法を提案する。
本研究では、教師なし領域適応と条件付き画像生成のためのシミュレーションデータと実データの両方を活用するモデルであるClimateGANを提案する。
論文 参考訳(メタデータ) (2021-10-06T15:54:57Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - Adapting User Interfaces with Model-based Reinforcement Learning [47.469980921522115]
インターフェースへの適応には、変更がユーザに与えるポジティブな効果とネガティブな効果の両方を考慮する必要があります。
保守的な適応政策をもたらす適応的ユーザインターフェースの新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-11T17:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。