論文の概要: Enhancing Covid-19 Decision-Making by Creating an Assurance Case for
Simulation Models
- arxiv url: http://arxiv.org/abs/2005.08381v1
- Date: Sun, 17 May 2020 22:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 23:07:23.720167
- Title: Enhancing Covid-19 Decision-Making by Creating an Assurance Case for
Simulation Models
- Title(参考訳): シミュレーションモデルの保証ケース作成によるcovid-19意思決定の強化
- Authors: Ibrahim Habli, Rob Alexander, Richard Hawkins, Mark Sujan, John
McDermid, Chiara Picardi, Tom Lawton
- Abstract要約: 我々は、重要な政策決定を導くのに使用される新型コロナウイルスのシミュレーションモデルが、保証ケースで支持されることの恩恵を受けると論じている。
これにより、モデリングにおける暗黙の仮定と固有の不確実性に対する批判的なレビューが可能になり、全体的な意思決定プロセスの透明性と説明責任が向上する。
- 参考スコア(独自算出の注目度): 7.241250079741012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation models have been informing the COVID-19 policy-making process.
These models, therefore, have significant influence on risk of societal harms.
But how clearly are the underlying modelling assumptions and limitations
communicated so that decision-makers can readily understand them? When making
claims about risk in safety-critical systems, it is common practice to produce
an assurance case, which is a structured argument supported by evidence with
the aim to assess how confident we should be in our risk-based decisions. We
argue that any COVID-19 simulation model that is used to guide critical policy
decisions would benefit from being supported with such a case to explain how,
and to what extent, the evidence from the simulation can be relied on to
substantiate policy conclusions. This would enable a critical review of the
implicit assumptions and inherent uncertainty in modelling, and would give the
overall decision-making process greater transparency and accountability.
- Abstract(参考訳): シミュレーションモデルは、新型コロナウイルスの政策決定プロセスに通知している。
これらのモデルは社会的損害のリスクに大きな影響を与える。
しかし、意思決定者が容易に理解できるように、基礎となるモデリングの前提と限界はどの程度明確か?
安全クリティカルなシステムにおけるリスクに関する主張を行う場合には、リスクベースの決定にどの程度自信を持つべきかを評価するために、エビデンスが支持する構造化された議論である保証ケースを作成するのが一般的である。
我々は、重要な政策決定を導くために使用される新型コロナウイルスのシミュレーションモデルは、どのようにしてシミュレーションの証拠が政策結論を実証するためにどの程度頼れるかを説明するために、そのようなケースで支持されることの恩恵を受けると論じている。
これにより、モデリングにおける暗黙の仮定と固有の不確実性に対する批判的なレビューが可能になり、全体的な意思決定プロセスの透明性と説明責任が向上する。
関連論文リスト
- Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Analyzing Intentional Behavior in Autonomous Agents under Uncertainty [3.0099979365586265]
不確実な環境での自律的な意思決定の原則的説明責任は、否定的な設計と実際の事故との意図的な結果の区別を必要とする。
本稿では、意図的行動の証拠を定量的に測定し、自律エージェントの行動を分析することを提案する。
ケーススタディでは,本手法が「意図的」交通衝突と「事故的」交通衝突を区別できることを示す。
論文 参考訳(メタデータ) (2023-07-04T07:36:11Z) - Dual policy as self-model for planning [71.73710074424511]
エージェントの自己モデルとして決定をシミュレートするために使用されるモデルについて述べる。
現在の強化学習アプローチと神経科学にインスパイアされた我々は、蒸留政策ネットワークを自己モデルとして利用することの利点と限界を探求する。
論文 参考訳(メタデータ) (2023-06-07T13:58:45Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Selecting Models based on the Risk of Damage Caused by Adversarial
Attacks [2.969705152497174]
規制、法的責任、社会的懸念は、安全およびセキュリティクリティカルなアプリケーションにおけるAIの採用に挑戦する。
重要な懸念の1つは、敵が検出されずにモデル予測を操作することで害を引き起こす可能性があることである。
本稿では,敵攻撃による被害の確率をモデル化し,統計的に推定する手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T10:24:38Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - On the Complexity of Adversarial Decision Making [101.14158787665252]
決定推定係数は, 相手の意思決定に対する後悔度を低く抑えるのに必要であり, 十分であることを示す。
我々は、決定推定係数を他のよく知られた複雑性尺度の変種に結びつける新しい構造結果を提供する。
論文 参考訳(メタデータ) (2022-06-27T06:20:37Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Robust Constrained-MDPs: Soft-Constrained Robust Policy Optimization
under Model Uncertainty [9.246374019271935]
我々は、制約マルコフ決定過程(CMDP)の理論とロバストマルコフ決定過程(RMDP)理論を融合することを提案する。
この定式化により、性能が堅牢なRLアルゴリズムを設計でき、制約満足度を保証することができる。
まず、RCMDPの概念に基づく一般問題定式化を提案し、次に最適問題のラグランジアン定式化を提案し、ロバスト制約付きポリシー勾配RLアルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-10-10T01:53:37Z) - Predictive Capability Maturity Quantification using Bayesian Network [0.0]
原子力工学では、リスクインフォームド安全分析を支援するためにモデリングとシミュレーション(M&S)が広く適用されている。
データギャップのため、検証は不確実性の下で意思決定プロセスとなる。
本稿では,ベイズネットワーク(PCMQBN)を用いた予測能力成熟度定量化フレームワークを,シミュレーション精度を評価するための定量化フレームワークとして提案する。
論文 参考訳(メタデータ) (2020-08-31T17:09:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。