論文の概要: Incorporating Expert Guidance in Epidemic Forecasting
- arxiv url: http://arxiv.org/abs/2101.10247v1
- Date: Thu, 24 Dec 2020 06:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:10:29.130212
- Title: Incorporating Expert Guidance in Epidemic Forecasting
- Title(参考訳): 疫学予測におけるエキスパートガイダンスの導入
- Authors: Alexander Rodr\'iguez, Bijaya Adhikari, Naren Ramakrishnan, B. Aditya
Prakash
- Abstract要約: AIセーフティによるセルドニアン最適化フレームワークを活用した新しいアプローチを提案します。
円滑性と誤りの地域整合性という2種類のガイダンスについて検討する。
その定式化に成功することにより、望ましくない行動が起こる確率を拘束できるだけでなく、テストデータのRMSEを最大17%削減することができることを示しています。
- 参考スコア(独自算出の注目度): 79.91855362871496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting influenza like illnesses (ILI) has rapidly progressed in recent
years from an art to a science with a plethora of data-driven methods. While
these methods have achieved qualified success, their applicability is limited
due to their inability to incorporate expert feedback and guidance
systematically into the forecasting framework. We propose a new approach
leveraging the Seldonian optimization framework from AI safety and demonstrate
how it can be adapted to epidemic forecasting. We study two types of guidance:
smoothness and regional consistency of errors, where we show that by its
successful incorporation, we are able to not only bound the probability of
undesirable behavior to happen, but also to reduce RMSE on test data by up to
17%.
- Abstract(参考訳): インフルエンザ様疾患(ILI)の予知は、近年、技術から科学まで、多くのデータ駆動手法で急速に進展している。
これらの手法は成功したが、専門家のフィードバックやガイダンスを予測フレームワークに体系的に組み込むことができないため、適用性は限られている。
本稿では,ai安全性からセルドニアン最適化フレームワークを活用する新しいアプローチを提案し,流行予測にどのように適用できるかを示す。
我々は,誤りの円滑性と局所的一貫性について検討し,その導入が成功すれば,好ましくない行動の確率を制限できるだけでなく,テストデータのrmseを最大17%低減できることを示した。
関連論文リスト
- Is Epistemic Uncertainty Faithfully Represented by Evidential Deep
Learning Methods? [12.88166582566313]
本稿では,顕在的深層学習の新たな理論的考察について述べる。
これは二階損失関数の最適化の難しさを強調している。
第二次損失最小化における識別可能性と収束性の問題に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-02-14T10:07:05Z) - Conservative Prediction via Data-Driven Confidence Minimization [66.35245313125934]
機械学習モデルのエラーは、特に医療のような安全クリティカルな領域では、コストがかかる。
本稿では、不確実性データセットに対する信頼性を最小化するデータ駆動型信頼性最小化(DCM)を提案する。
実験の結果、DCMは8つのID-OODデータセットペアに対して、最先端のOOD検出方法よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Predicting infections in the Covid-19 pandemic -- lessons learned [5.981641988736108]
本稿では,XPrize Pandemic Response Challengeのために提案された予測アルゴリズムから始める。
モデル化された地域の文化に関する付加的な情報でアルゴリズムを増強することで、短期予測の性能を向上させることができることがわかった。
中期予測の精度は依然として低く、そのようなモデルを公共政策ツールボックスの信頼性の高いコンポーネントにするためには、かなりの量の将来の研究が必要である。
論文 参考訳(メタデータ) (2021-12-02T20:20:46Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Stratified Learning: A General-Purpose Statistical Method for Improved
Learning under Covariate Shift [1.1470070927586016]
本稿では,学習セットが代表的でない場合の教師あり学習を改善するための,シンプルで統計的に原理化された理論的に正当化された手法を提案する。
因果推論において確立された方法論を基礎として,共変量シフトの影響を条件付けによって低減・排除できることを示す。
本稿では,宇宙論における2つの現代の研究課題に対する汎用的手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-21T15:53:20Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Forecasting COVID-19 daily cases using phone call data [0.0]
本稿では,コールデータを用いて日次確認症例数を予測するために最適化した簡易な多重線形回帰モデルを提案する。
提案手法は, ARIMA, ETS, および呼び出しデータのない回帰モデルより優れており, 3点予測誤差, 1点予測間隔, 2点の確率予測精度測定によって評価される。
論文 参考訳(メタデータ) (2020-10-05T18:07:07Z) - Identifying Causal-Effect Inference Failure with Uncertainty-Aware
Models [41.53326337725239]
本稿では,不確実性推定を最先端のニューラルネットワーク手法のクラスに統合する実践的アプローチを提案する。
提案手法は,高次元データに共通する「非オーバーラップ」の状況に優雅に対処できることを示す。
正確なモデリングの不確実性は、過度に自信を持ち、潜在的に有害なレコメンデーションを与えるのを防ぐことができる。
論文 参考訳(メタデータ) (2020-07-01T00:37:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。