論文の概要: Structured AI Decision-Making in Disaster Management
- arxiv url: http://arxiv.org/abs/2509.01576v1
- Date: Mon, 01 Sep 2025 16:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.764139
- Title: Structured AI Decision-Making in Disaster Management
- Title(参考訳): 災害管理における構造化AI意思決定
- Authors: Julian Gerald Dcruz, Argyrios Zolotas, Niall Ross Greenwood, Miguel Arana-Catania,
- Abstract要約: 本稿では,構造化された意思決定枠組みを提案することにより,意思決定の課題に対処することに貢献した。
提案する構造化意思決定フレームワークは,特に災害管理において自律的な意思決定に実装されている。
その結果、構造化された意思決定フレームワークは、一貫した正確な決定において、60.94%以上の安定性を達成していることが示された。
- 参考スコア(独自算出の注目度): 0.31109959052829045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With artificial intelligence (AI) being applied to bring autonomy to decision-making in safety-critical domains such as the ones typified in the aerospace and emergency-response services, there has been a call to address the ethical implications of structuring those decisions, so they remain reliable and justifiable when human lives are at stake. This paper contributes to addressing the challenge of decision-making by proposing a structured decision-making framework as a foundational step towards responsible AI. The proposed structured decision-making framework is implemented in autonomous decision-making, specifically within disaster management. By introducing concepts of Enabler agents, Levels and Scenarios, the proposed framework's performance is evaluated against systems relying solely on judgement-based insights, as well as human operators who have disaster experience: victims, volunteers, and stakeholders. The results demonstrate that the structured decision-making framework achieves 60.94% greater stability in consistently accurate decisions across multiple Scenarios, compared to judgement-based systems. Moreover, the study shows that the proposed framework outperforms human operators with a 38.93% higher accuracy across various Scenarios. These findings demonstrate the promise of the structured decision-making framework for building more reliable autonomous AI applications in safety-critical contexts.
- Abstract(参考訳): 人工知能(AI)は、航空宇宙や緊急対応サービスに代表されるような安全クリティカルな領域の意思決定に自律性をもたらすために応用されているため、これらの決定を構造化する倫理的意味に対処する声が上がっている。
本稿では,AIの責任を負うための基本的なステップとして,構造化された意思決定フレームワークを提案することにより,意思決定の課題への対処に寄与する。
提案する構造化意思決定フレームワークは,特に災害管理において自律的な意思決定に実装されている。
Enablerエージェント、Levels、Scenariosの概念を導入することで、このフレームワークのパフォーマンスは、判断に基づく洞察のみに依存するシステムや、災害経験を持つ人間オペレーター(被害者、ボランティア、ステークホルダー)に対して評価される。
その結果、構造化された意思決定フレームワークは、判定に基づくシステムと比較して、複数のシナリオで一貫して正確な決定を行う場合、安定性が60.94%向上することを示した。
さらに,提案手法は,様々なシナリオにおいて,38.93%の精度で人間の操作者より優れていた。
これらの結果は、安全クリティカルな状況下でより信頼性の高い自律型AIアプリケーションを構築するための、構造化された意思決定フレームワークの可能性を実証している。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Bridging the gap: Towards an Expanded Toolkit for AI-driven Decision-Making in the Public Sector [6.693502127460251]
AIによる意思決定システムは、刑事司法、社会福祉、金融詐欺検出、公衆衛生などの分野に適用される。
これらのシステムは、機械学習(ML)モデルと公共セクターの意思決定の複雑な現実を整合させるという課題に直面している。
本稿では,データ側における分散シフトやラベルバイアス,過去の意思決定の影響,モデル出力側における競合する目標や人道支援など,不一致が発生する可能性のある5つの重要な課題について検討する。
論文 参考訳(メタデータ) (2023-10-29T17:44:48Z) - On strategies for risk management and decision making under uncertainty shared across multiple fields [55.2480439325792]
本稿では、このような戦略の110以上の例を見つけ、リスクに対するこのアプローチをRDOT: Risk-reducing Design and Operations Toolkitと呼ぶ。
RDOT戦略は、構造的、反応性、形式的、敵対的、多段階、ポジティブの6つの幅広いカテゴリに分類される。
全体的なRDOTは、不確実性に対する多目的応答の見過ごされたクラスを表している。
論文 参考訳(メタデータ) (2023-09-06T16:14:32Z) - Rational Decision-Making Agent with Internalized Utility Judgment [88.01612847081677]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - A Decision Model for Decentralized Autonomous Organization Platform
Selection: Three Industry Case Studies [0.0]
オンラインガバナンスの新しい形態としての分散型自律型組織は、ブロックチェーンプラットフォームにデプロイされたスマートコントラクトの集合体である。
本研究では,分散型自律組織プラットフォーム選択問題に対するマルチクオリトリア意思決定問題として,意思決定モデルを提案する。
論文 参考訳(メタデータ) (2021-07-07T10:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。