論文の概要: Enhancing Covid-19 Decision-Making by Creating an Assurance Case for
Simulation Models
- arxiv url: http://arxiv.org/abs/2005.08381v1
- Date: Sun, 17 May 2020 22:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 23:07:23.720167
- Title: Enhancing Covid-19 Decision-Making by Creating an Assurance Case for
Simulation Models
- Title(参考訳): シミュレーションモデルの保証ケース作成によるcovid-19意思決定の強化
- Authors: Ibrahim Habli, Rob Alexander, Richard Hawkins, Mark Sujan, John
McDermid, Chiara Picardi, Tom Lawton
- Abstract要約: 我々は、重要な政策決定を導くのに使用される新型コロナウイルスのシミュレーションモデルが、保証ケースで支持されることの恩恵を受けると論じている。
これにより、モデリングにおける暗黙の仮定と固有の不確実性に対する批判的なレビューが可能になり、全体的な意思決定プロセスの透明性と説明責任が向上する。
- 参考スコア(独自算出の注目度): 7.241250079741012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation models have been informing the COVID-19 policy-making process.
These models, therefore, have significant influence on risk of societal harms.
But how clearly are the underlying modelling assumptions and limitations
communicated so that decision-makers can readily understand them? When making
claims about risk in safety-critical systems, it is common practice to produce
an assurance case, which is a structured argument supported by evidence with
the aim to assess how confident we should be in our risk-based decisions. We
argue that any COVID-19 simulation model that is used to guide critical policy
decisions would benefit from being supported with such a case to explain how,
and to what extent, the evidence from the simulation can be relied on to
substantiate policy conclusions. This would enable a critical review of the
implicit assumptions and inherent uncertainty in modelling, and would give the
overall decision-making process greater transparency and accountability.
- Abstract(参考訳): シミュレーションモデルは、新型コロナウイルスの政策決定プロセスに通知している。
これらのモデルは社会的損害のリスクに大きな影響を与える。
しかし、意思決定者が容易に理解できるように、基礎となるモデリングの前提と限界はどの程度明確か?
安全クリティカルなシステムにおけるリスクに関する主張を行う場合には、リスクベースの決定にどの程度自信を持つべきかを評価するために、エビデンスが支持する構造化された議論である保証ケースを作成するのが一般的である。
我々は、重要な政策決定を導くために使用される新型コロナウイルスのシミュレーションモデルは、どのようにしてシミュレーションの証拠が政策結論を実証するためにどの程度頼れるかを説明するために、そのようなケースで支持されることの恩恵を受けると論じている。
これにより、モデリングにおける暗黙の仮定と固有の不確実性に対する批判的なレビューが可能になり、全体的な意思決定プロセスの透明性と説明責任が向上する。
関連論文リスト
- Controlling Risk of Retrieval-augmented Generation: A Counterfactual Prompting Framework [77.45983464131977]
我々は、RAGモデルの予測が誤りであり、現実のアプリケーションにおいて制御不能なリスクをもたらす可能性がどの程度あるかに焦点を当てる。
本研究は,RAGの予測に影響を及ぼす2つの重要な潜伏要因を明らかにする。
我々は,これらの要因をモデルに誘導し,その応答に与える影響を解析する,反実的プロンプトフレームワークを開発した。
論文 参考訳(メタデータ) (2024-09-24T14:52:14Z) - Defining and Evaluating Decision and Composite Risk in Language Models Applied to Natural Language Inference [3.422309388045878]
ChatGPTのような大規模言語モデル(LLM)は、重大なリスクをもたらすことが知られている。
モデルが推論に持っている過信または過信から、誤った信頼が生じる。
本稿では,2段階の推論アーキテクチャと,そのようなリスクを測定するための適切な指標からなる実験フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-04T05:24:32Z) - Data-Adaptive Tradeoffs among Multiple Risks in Distribution-Free Prediction [55.77015419028725]
しきい値とトレードオフパラメータが適応的に選択された場合、リスクの有効な制御を可能にする手法を開発する。
提案手法は単調なリスクとほぼ単調なリスクをサポートするが,それ以外は分布的な仮定はしない。
論文 参考訳(メタデータ) (2024-03-28T17:28:06Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Analyzing Intentional Behavior in Autonomous Agents under Uncertainty [3.0099979365586265]
不確実な環境での自律的な意思決定の原則的説明責任は、否定的な設計と実際の事故との意図的な結果の区別を必要とする。
本稿では、意図的行動の証拠を定量的に測定し、自律エージェントの行動を分析することを提案する。
ケーススタディでは,本手法が「意図的」交通衝突と「事故的」交通衝突を区別できることを示す。
論文 参考訳(メタデータ) (2023-07-04T07:36:11Z) - Dual policy as self-model for planning [71.73710074424511]
エージェントの自己モデルとして決定をシミュレートするために使用されるモデルについて述べる。
現在の強化学習アプローチと神経科学にインスパイアされた我々は、蒸留政策ネットワークを自己モデルとして利用することの利点と限界を探求する。
論文 参考訳(メタデータ) (2023-06-07T13:58:45Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Predictive Capability Maturity Quantification using Bayesian Network [0.0]
原子力工学では、リスクインフォームド安全分析を支援するためにモデリングとシミュレーション(M&S)が広く適用されている。
データギャップのため、検証は不確実性の下で意思決定プロセスとなる。
本稿では,ベイズネットワーク(PCMQBN)を用いた予測能力成熟度定量化フレームワークを,シミュレーション精度を評価するための定量化フレームワークとして提案する。
論文 参考訳(メタデータ) (2020-08-31T17:09:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。