論文の概要: Prioritizing emergency evacuations under compounding levels of
uncertainty
- arxiv url: http://arxiv.org/abs/2210.08975v1
- Date: Fri, 30 Sep 2022 21:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:44:25.444970
- Title: Prioritizing emergency evacuations under compounding levels of
uncertainty
- Title(参考訳): 不確実性の複合化による緊急避難の優先順位付け
- Authors: Lisa J. Einstein, Robert J. Moss, Mykel J. Kochenderfer
- Abstract要約: 民間避難に備えたチームを対象とした危機前訓練のための意思決定支援ツールの提案と分析を行う。
我々は多種多様なマルコフ決定過程(MDP)を用いて、複雑な不確実性のレベルを捉える。
モデル不確実性の複合レベルを考慮すると、政策性能の改善なしに複雑さが増すことが示される。
- 参考スコア(独自算出の注目度): 34.71695000650056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Well-executed emergency evacuations can save lives and reduce suffering.
However, decision makers struggle to determine optimal evacuation policies
given the chaos, uncertainty, and value judgments inherent in emergency
evacuations. We propose and analyze a decision support tool for pre-crisis
training exercises for teams preparing for civilian evacuations and explore the
tool in the case of the 2021 U.S.-led evacuation from Afghanistan. We use
different classes of Markov decision processes (MDPs) to capture compounding
levels of uncertainty in (1) the priority category of who appears next at the
gate for evacuation, (2) the distribution of priority categories at the
population level, and (3) individuals' claimed priority category. We compare
the number of people evacuated by priority status under eight heuristic
policies. The optimized MDP policy achieves the best performance compared to
all heuristic baselines. We also show that accounting for the compounding
levels of model uncertainty incurs added complexity without improvement in
policy performance. Useful heuristics can be extracted from the optimized
policies to inform human decision makers. We open-source all tools to encourage
robust dialogue about the trade-offs, limitations, and potential of integrating
algorithms into high-stakes humanitarian decision-making.
- Abstract(参考訳): 緊急避難は命を救い、苦しみを減らすことができる。
しかし、緊急避難に固有の混乱、不確実性、および価値判断を考慮して、意思決定者は最適な避難方針を決定するのに苦労する。
民間避難に備えたチームを対象とした危機前訓練のための意思決定支援ツールの提案と分析を行い,2021年の米国主導のアフガニスタンからの避難に備えて,そのツールを探索する。
我々は,(1)避難ゲートに次に現れる優先カテゴリー,(2)人口レベルでの優先カテゴリーの分布,(3)個人が主張する優先カテゴリーにおいて,複合的不確実性のレベルを捉えるために,異なる種類のマルコフ決定過程(MDP)を用いる。
8つのヒューリスティックな政策の下で、優先的な地位で避難する人の数を比較した。
最適化されたMDPポリシは、すべてのヒューリスティックベースラインと比較して最高のパフォーマンスを達成する。
また,モデルの不確かさの複合化レベルを考慮すれば,政策性能の向上を伴わずに複雑さが増すことが示された。
有用なヒューリスティックは、人間の意思決定者に知らせるために最適化されたポリシーから抽出できる。
われわれは、アルゴリズムを高い人道的意思決定に組み込むためのトレードオフ、制限、可能性に関する堅牢な対話を促進するためのすべてのツールをオープンソース化した。
関連論文リスト
- Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs [82.34567890576423]
我々は,非漸近収束を伴う最適決定主義政策を求めるための決定主義的政策勾配原始双対法を開発した。
D-PGPDの一次-双対反復は、最適正則化原始-双対にサブ線形速度で収束することが証明された。
我々の知る限り、これは連続空間制約型MDPに対する決定論的ポリシー探索法を提案する最初の研究であると思われる。
論文 参考訳(メタデータ) (2024-08-19T14:11:04Z) - Optimal Transport-Assisted Risk-Sensitive Q-Learning [4.14360329494344]
本稿では,エージェントの安全性を高めるために最適な輸送理論を利用するリスク感受性Q-ラーニングアルゴリズムを提案する。
提案したアルゴリズムをGridworld環境で検証する。
論文 参考訳(メタデータ) (2024-06-17T17:32:25Z) - Matchings, Predictions and Counterfactual Harm in Refugee Resettlement Processes [15.140146403589952]
データ駆動型アルゴリズムマッチングは、難民と雇用率をユーティリティーの尺度として利用する場所をマッチングする。
我々は,難民プールにおけるデフォルトポリシーによる配置決定を前提として,逆マッチング問題を解決するポストプロセッシングアルゴリズムを開発した。
これらの修正された予測の下では、プール上の予測ユーティリティを最大化する最適なマッチングポリシーは有害ではないことが保証される。
論文 参考訳(メタデータ) (2024-05-24T19:51:01Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Enhancing Evacuation Planning through Multi-Agent Simulation and
Artificial Intelligence: Understanding Human Behavior in Hazardous
Environments [0.0]
本稿では人工知能(AI)技術,特にマルチエージェントシステム(MAS)を用いて避難シミュレーションモデルを構築した。
本研究の目的は、このような苦しい状況下で、個人がどのように反応し、反応するかについての理解を深めることである。
論文 参考訳(メタデータ) (2023-06-11T08:13:42Z) - Reinforcement Learning with Human Feedback: Learning Dynamic Choices via
Pessimism [91.52263068880484]
人間のフィードバックを用いたオフライン強化学習(RLHF)について検討する。
我々は、人間の選択によって引き起こされる一連の軌道から、人間の根底にある報酬とMDPの最適政策を学習することを目指している。
RLHFは、大きな状態空間だが人間のフィードバックが限られていること、人間の決定の有界な合理性、政治外の分散シフトなど、さまざまな理由から挑戦されている。
論文 参考訳(メタデータ) (2023-05-29T01:18:39Z) - Sequential Fair Resource Allocation under a Markov Decision Process
Framework [9.440900386313213]
限られた資源を有限の地平線上で到着する際の要求を明らかにするエージェントに割り当てることのシーケンシャルな意思決定問題について検討する。
我々は,地平線上での要求全体に対して公平なアロケーションを行う新しいアルゴリズムであるSAFFEを提案する。
SAFFEはより公平で効率的なアロケーションを実現し、密着度の高い設定で最適に近い性能を実現する。
論文 参考訳(メタデータ) (2023-01-10T02:34:00Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。