論文の概要、ライセンス

# (参考訳) back2future: リアルタイム予測を改善するためにbackfill dynamicsを活用する [全文訳有]

Back2Future: Leveraging Backfill Dynamics for Improving Real-time Predictions in Future ( http://arxiv.org/abs/2106.04420v1 )

ライセンス: CC BY 4.0
Harshavardhan Kamarthi, Alexander Rodr\'iguez, B. Aditya Prakash(参考訳) 公衆衛生のリアルタイム予測では、データ収集は自明で要求の厳しいタスクである。 多くの場合、最初のリリース後、いくつかのリビジョン(人的または技術的な制約のためかもしれない)が行われ、結果としてデータが安定した値に達するまで数週間かかる可能性がある。 このいわゆる「バックフィル」現象とそのモデル性能への影響は、以前の文献ではほとんど研究されていない。 本稿では,COVID-19をモチベーションの例として用いた多変量バックフィル問題を紹介する。 パンデミックの過去1年間に関連する信号からなる詳細なデータセットを構築した。 次に、バックフィルダイナミクスのいくつかのパターンを体系的に特徴付け、新しい問題とニューラルネットワークのフレームワークであるBack2Futureを定式化し、与えられたモデルの予測をリアルタイムで洗練することを目的とする。 提案手法は,非自明なベースラインとは対照的に,最上位モデルの性能を改良し,ベースラインよりも18%向上し,新たなSOTA性能が得られることを示した。 さらに,本モデルではモデル評価の精度も向上し,政策立案者がリアルタイムに予測モデルの真の精度をよりよく理解できることを示す。

In real-time forecasting in public health, data collection is a non-trivial and demanding task. Often after initially released, it undergoes several revisions later (maybe due to human or technical constraints) - as a result, it may take weeks until the data reaches to a stable value. This so-called 'backfill' phenomenon and its effect on model performance has been barely studied in the prior literature. In this paper, we introduce the multi-variate backfill problem using COVID-19 as the motivating example. We construct a detailed dataset composed of relevant signals over the past year of the pandemic. We then systematically characterize several patterns in backfill dynamics and leverage our observations for formulating a novel problem and neural framework Back2Future that aims to refines a given model's predictions in real-time. Our extensive experiments demonstrate that our method refines the performance of top models for COVID-19 forecasting, in contrast to non-trivial baselines, yielding 18% improvement over baselines, enabling us obtain a new SOTA performance. In addition, we show that our model improves model evaluation too; hence policy-makers can better understand the true accuracy of forecasting models in real-time.
公開日: Tue, 8 Jun 2021 14:48:20 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] G L . 8 ] G L。 0.81
s c [ 1 v 0 2 4 4 0 sc [ 1 v 0 2 4 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Back2Future: Leveraging Backfill Dynamics for Back2Future: Backfill Dynamicsを活用 0.84
Improving Real-time Predictions in Future 今後のリアルタイム予測の改善 0.66
Harshavardhan Kamarthi, Alexander Rodríguez, B. Aditya Prakash Harshavardhan Kamarthi, Alexander Rodríguez, B. Aditya Prakash 0.94
{harsha.pk,arodriguez c,badityap}@gatech.edu harsha.pk,arodriguez c,badityap}@gatech.edu 0.83
College of Computing コンピューティング大学 0.51
Georgia Institute of Technology Abstract ジョージア工科大学 概要 0.47
In real-time forecasting in public health, data collection is a non-trivial and demanding task. 公衆衛生のリアルタイム予測では、データ収集は自明で要求の厳しいタスクである。 0.65
Often after initially released, it undergoes several revisions later (maybe due to human or technical constraints) - as a result, it may take weeks until the data reaches to a stable value. 多くの場合、最初のリリース後、いくつかのリビジョン(人的または技術的な制約のためかもしれない)が行われ、結果としてデータが安定した値に達するまで数週間かかる可能性がある。 0.62
This so-called ‘backfill’ phenomenon and its effect on model performance has been barely studied in the prior literature. このいわゆる「バックフィル」現象とそのモデル性能への影響は、以前の文献ではほとんど研究されていない。 0.67
In this paper, we introduce the multi-variate backfill problem using COVID-19 as the motivating example. 本稿では,COVID-19をモチベーションの例として用いた多変量バックフィル問題を紹介する。 0.63
We construct a detailed dataset composed of relevant signals over the past year of the pandemic. パンデミックの過去1年間に関連する信号からなる詳細なデータセットを構築した。 0.76
We then systematically characterize several patterns in backfill dynamics and leverage our observations for formulating a novel problem and neural framework Back2Future that aims to refines a given model’s predictions in real-time. 次に、バックフィルダイナミクスのいくつかのパターンを体系的に特徴づけ、新しい問題とニューラルネットワークのフレームワークであるBack2Futureを定式化し、与えられたモデルの予測をリアルタイムで洗練することを目的としています。 0.53
Our extensive experiments demonstrate that our method refines the performance of top models for COVID-19 forecasting, in contrast to non-trivial baselines, yielding 18% improvement over baselines, enabling us obtain a new SOTA performance. 提案手法は,非自明なベースラインとは対照的に,最上位モデルの性能を改良し,ベースラインよりも18%向上し,新たなSOTA性能が得られることを示した。 0.68
In addition, we show that our model improves model evaluation too; hence policy-makers can better understand the true accuracy of forecasting models in real-time. さらに,本モデルではモデル評価の精度も向上し,政策立案者がリアルタイムに予測モデルの真の精度をよりよく理解できることを示す。 0.81
1 Introduction The current COVID-19 pandemic has challenged our response capabilities to a large disruptive events, affecting the health and economy of millions of people. 1 はじめに 現在の新型コロナウイルス(COVID-19)パンデミックは、何百万人もの人々の健康と経済に影響を及ぼす大きな破壊的な出来事に対する私たちの対応能力に挑戦している。 0.61
A major tool in our response has been forecasting epidemic trajectories, which has provided lead time to policy makers to optimize and plan interventions [21]. 我々の反応における主要なツールは、流行の軌跡を予測し、政策立案者に介入を最適化し計画するリードタイムを提供した[21]。 0.73
Broadly two classes of approaches have been devised: traditional mechanistic epidemiological models [40, 48], and the fairly newer statistical approaches [5, 1, 31] including deep learning models [1, 17, 33, 38], which have become among the top performing ones for multiple forecasting tasks [37]. 従来の力学疫学モデル [40, 48] と、深層学習モデル [1, 17, 33, 38] を含むかなり新しい統計モデル [5, 1, 31] の2つのアプローチが考案された。
訳抜け防止モード: 従来の力学疫学モデル [40, 48 ] の2種類のアプローチが考案された。 深層学習モデルを含む、かなり新しい統計的アプローチ [5, 1, 31 ] 17, 33, 38 ] 複数の予測タスク[37]で トップパフォーマンスの1つになりました
0.75
These also leverage newer digital indicators like search queries [19, 45] and social media [16, 26]. また、検索クエリー [19, 45] やソーシャルメディア [16, 26] のような新しいデジタル指標も活用している。 0.76
As noted in multiple previous works [29, 4], epidemic forecasting is a challenging enterprise because it is affected by weather, mobility, strains, and others. 複数の先行研究[29, 4]で指摘されているように, 流行予測は, 天候, 移動性, 緊張などの影響を受け, 難しい企業である。 0.78
However, real-time forecasting also brings new challenges. しかし、リアルタイム予測は新たな課題をもたらす。 0.61
As noted in multiple CDC real-time forecasting initiatives for diseases like flu [30] and COVID-19 [14], there are concerns with respect to the initial releases of data. 複数のCDCによるインフルエンザ[30]やCOVID-19[14]などの疾病のリアルタイム予測イニシアチブで指摘されているように、データの初期リリースには懸念がある。 0.75
Typical public health data is revised many a times after its initial release (known as the ’backfill’ phenomenon), which, from our analysis, it may need up to 21 weeks to reach to its final stable value. 一般的な公衆衛生データは、最初のリリース(バックフィル現象として知られる)の後に何度も改訂されています。
訳抜け防止モード: 一般的な公衆衛生データは、最初のリリース後("バックフィル"現象として知られる)に何度も修正される。 分析によると 最終安定値に達するのに 最大21週間かかるかもしれない
0.74
The various factors that effect backfill are multiple and complex, ranging from surveillance resources to human factors like coordination between health institutes and government organization within and across regions [9, 37, 2]. バックフィルに影響を及ぼすさまざまな要因は多様で複雑であり、監視資源から医療機関と地域の政府組織間の協調といったヒューマンファクターまで多岐にわたる [9, 37, 2]。 0.82
While previous works have addressed anomalies [27], missing data [46], and data delays [49] in general time-series problems, the backfill problem has not been addressed. これまでの研究では, [27] の異常, [46] の欠如,[49] データの遅延といった問題に対して,バックフィル問題は解決されていない。 0.81
In contrast, the topic of revisions has not received as much attention, with few exceptions. 対照的に、リビジョンの話題はあまり注目されていないが、例外は少ない。 0.64
For example in epidemic Preprint. 例えば伝染病では プレプリント。 0.73
Updated on June 9, 2021. 2021年6月9日改正。 0.59
英語(論文から抽出)日本語訳スコア
forecasting, a few papers have either (a) mentioned about the ‘backfill problem’ and its effects on performance [9, 39, 2, 36] and evaluation [37]; or (b) proposed to address the problem via simple models like linear regression [8] or ’backcasting’ [5] the observed targets. a)‘バックフィル問題’とそのパフォーマンスへの影響 [9, 39, 2, 36] と評価 [37] について言及する論文や、(b) 観測対象の線形回帰 [8] や ‘バックキャスト’ といった単純なモデルを通じてこの問題に対処するために提案する論文がある。 0.75
However they focus only on revisions in the target, and study only in context of influenza forecasting, which is substantially less noisy and more regular than the novel COVID-19 pandemic. しかし、ターゲットの改訂だけに焦点を当て、新型コロナウイルス(covid-19)パンデミック(covid-19)よりもかなり騒音が少なく、規則的なインフルエンザ予報の文脈でのみ研究を行う。
訳抜け防止モード: しかし、ターゲットのリビジョンのみに焦点を当て、インフルエンザ予測の文脈でのみ研究する。 新型コロナウイルス(COVID-19)のパンデミックに比べれば、かなり騒々しく、定期的です。
0.64
In economics, [12] surveys several domain-specific [6] or essentially linear techniques for data revision/correction behavior of the source of several macroeconomic indicators [15], e g job unemployment numbers. 経済学において、[12]は、いくつかのマクロ経済指標 [15]、例えば失業数)の源泉のデータ修正・補正行動のためのいくつかのドメイン特化[6]または本質的に線形技術を調査している。
訳抜け防止モード: 経済学において, [12 ] はいくつかの領域を調査する - 特に [6 ] あるいは、いくつかのマクロ経済指標のソースのデータリビジョン/修正動作のためのリニアなテクニックです [15]。 eg失業数です
0.71
Motivated from above, we study the more challenging problem of multi-variate backfill for both features and targets. 以上より,特徴と対象の両方に対する多変量バックフィルの課題について考察した。 0.62
We go further beyond prior work and also show how to leverage our insights for a more general neural framework to improve both model predictions (i.e. 私たちは以前の作業を超えて、モデル予測(すなわち、両方のモデル予測)を改善するために、より一般的なニューラルネットワークフレームワークに洞察を活用する方法を示します。 0.58
refinement of the modeler’s perspective) and model performance evaluation (i.e. モデラーの視点の改良)とモデル性能評価(すなわち、モデルの性能評価) 0.87
rectification from the evaluator’s perspective). 評価者の視点からの正当性)。 0.58
Our specific contributions are the following: • Multi-variate backfill problem: We introduce the multi-variate backfill problem using real-time epidemiological forecasting as the motivating example. • 多変量バックフィル問題:リアルタイム疫学予測をモチベーションとして用いた多変量バックフィル問題を導入する。 0.58
In this challenging setting, which generalizes (the limited) prior work, the forecast targets as well as exogenous features are subject to retrospective revision. 先行作業を一般化(限定)するこの困難な設定では、予測対象と外生的特徴がふりかえりの修正の対象となる。 0.66
Using a carefully collected diverse dataset for COVID-19 forecasting for the past year, we discover several patterns in backfill dynamics, show that there is a significant difference in real-time and revised feature measurements and highlight the negative effects of using unrevised features for incidence forecasting in different models both for model performance and evaluation. 過去1年間、注意深く収集された多様なデータセットを用いて、バックフィルダイナミックスにおけるいくつかのパターンを発見し、リアルタイムおよび改訂された特徴測定に有意な違いがあることを示し、モデル性能と評価の両方のために異なるモデルにおける予測の予測に修正されていない特徴を使用することによる負の効果を強調した。 0.66
Building on our empirical observations, we formulate the problem BFRP, which aims to ‘correct’ given model predictions to achieve better performance on eventual fully revised data. 実験的な観測に基づいて、与えられたモデル予測を'修正'し、最終的に完全に修正されたデータに対してより良いパフォーマンスを達成することを目的とした問題BFRPを定式化する。
訳抜け防止モード: 経験的な観察に基づいて 問題bfrpを定式化します モデル予測を‘正しい’ことで、最終的に完全に修正されたデータのパフォーマンス向上を目指す。
0.72
• Spatial and Feature level backfill modelling to refine model predictions: Motivated by the patterns in revision and observations from our empirical study, we propose a deep-learning model Back2Future (B2F) to model backfill revision patterns and derive latent encodings for features. • モデル予測を洗練するための空間的および機能レベルのバックフィルモデリング:我々の経験的研究から、リビジョンと観察のパターンに動機づけられた、バックフィルのリビジョンパターンをモデル化し、機能の潜在エンコーディングを導出するためのディープラーニングモデルback2f(b2f)を提案する。 0.72
In contrast to [24] who deal with multiple sequences of labels using attention to combines large number of features spanning across multiple regions, B2F combines Graph Convolutional Networks that capture sparse, cross-feature and cross-regional backfill dynamics similarity and deep sequential models that capture temporal dynamics of each features’ backfill dynamics across time. 複数の領域にまたがる多数の機能を組み合わせるために注意を使用してラベルの複数のシーケンスを扱う24人とは対照的に、b2fは、スパース、クロス機能、クロスリージョンのバックフィルダイナミクスをキャプチャするグラフ畳み込みネットワークと、各機能の時間にわたるバックフィルダイナミクスの時間的ダイナミクスをキャプチャするディープシーケンシャルモデルを組み合わせたものだ。 0.63
The latent representation of all features is used along with history of model’s predictions to improve different classes of models trained on real-time targets, to predict targets closer to revised ground truth values. すべての機能の潜在表現は、モデルの予測履歴とともに、リアルタイムターゲットでトレーニングされたモデルの異なるクラスを改善し、改訂された基底真理値に近いターゲットを予測するために使用される。 0.67
Our technique can be used as a ‘wrapper’ to improve model performance of any forecasting model (mechanistic/statist ical). 我々の手法は,任意の予測モデル(力学・統計学)のモデル性能を向上させるために,「ラッパー」として使用できる。
訳抜け防止モード: 我々の技術は'ラッパー'として使用できる 予測モデル(機械的/統計的)のモデル性能を改善する。
0.75
• SOTA performance and improved model evaluation: We perform extensive empirical evaluation to show that Back2Future consistently improves performance of different classes of top performing COVID-19 forecasting models (from the CDC COVID-19 Forecast Hub, including the top-performing official ensemble) significantly and as a direct consequence, provide a new state-of-the-art model – B2F-refined Covid Hub Ensemble – for the (real-time) COVID-19 forecasting task. • SOTA性能とモデル評価の改善:Back2Futureは、新型コロナウイルス予測モデル(CDC COVID-19予測ハブなど)の様々なクラスのパフォーマンスを継続的に改善し、直接的な結果として、新しい最先端モデルであるB2F修正コビッドハブ・アンサンブルを提供する。
訳抜け防止モード: •SOTAの性能向上とモデル評価の改善 : Back2Future は CDC COVID-19 予報ハブからの上位成績予測モデルの様々なクラスの性能を継続的に改善することを示す実験的な評価を行う。 トップを含む - 公式のアンサンブルを行う) 直接的な結果として B2F – 改良された Covid Hub Ensemble – を(リアルタイム) COVID-19 予測タスクに提供する。
0.79
We also utilize B2F to help forecast evaluators and policy-makers better evaluate the ‘eventual’ true accuracy of participating models (against revised ground truth, which may not be available until weeks later). 我々はまた、B2Fを利用して、評価担当者や政策立案者に対して、参加モデルの「外部的」真の正確性を評価するのに役立ちます。 0.60
This allows the model evaluators to more quickly estimate models that perform better w.r.t revised stable targets instead of potentially misleading current targets. これにより、モデル評価者は、現在の目標を誤解させることなく、より適切に修正された安定した目標を達成するモデルをより迅速に見積もることができる。
訳抜け防止モード: これにより、モデル評価器はモデルをより迅速に見積もることができる。 現在の目標を誤解させることなく 安定した目標を修正
0.72
Our methodology can be adapted for other time-series forecasting problems in general. 本手法は他の時系列予測問題にも適用可能である。 0.65
2 Nature of backfill dynamics In this section, we study important properties of the revision dynamics of our signals. 2 バックフィルダイナミクスの性質 本節では、信号のリビジョンダイナミクスの重要な特性について検討する。 0.75
We introduce some concepts and definitions to aid in understanding of our empirical observations and method. 我々は経験的観察と方法を理解するのに役立ついくつかの概念と定義を紹介する。 0.68
Real-time forecasting. We are given a set of signals F = Reg × Feat, where set Reg is the set of all regions (where we want to forecast) and set Feat contains our features and forecasting target(s) for each region. リアルタイム予測。 信号 f = reg × feat のセットが与えられ、ここで set reg はすべての領域(予測したい領域)の集合であり、set feat には各領域の特徴と予測対象が含まれます。 0.68
At prediction week t, x(t) i,1:t is a time series from 1 to t for feature i, and the set of all signals results in the multi-variate time series X (t) 1:t is the forecasting target(s) time 1:t} as real-time sequence. 予測週 t において、x(t) i,1:t は特徴 i に対して 1 から t までの時系列であり、全ての信号の集合はマルチ変量時系列 X (t) 1:t を実時間シーケンスとして予測対象(s) 時間 1:t となる。 0.88
For 1:t ,Y (t) series. 1:t ,Y (t) シリーズ。 0.67
Further, let’s call all data available at time t, D(t) clarity we refer to ‘signal’ i ∈ F as a sequence of either a feature or a target, and denote it as d(t) i,1:t. 1In practice, delays are possible too, i.e, at week t, we have data for some feature i only until t − δi. さらに、時刻 t, D(t) で利用可能なすべてのデータを、'signal' i ∈ F' を特徴または対象のシーケンスとして参照し、それを d(t) i,1:t. 1 と表します。
訳抜け防止モード: さらに、タイムtで利用可能なすべてのデータを呼び出しましょう。 d(t ) 明快さ 私たちは ‘signal ’ i ∈ f を特徴または対象の列として参照します。 d(t ) i,1 : t . 1 と表記します。 遅延も可能で、例えば、週 t では、いくつかの機能 i について t − δi までデータが得られる。
0.87
All our results incorporate these situations. すべての結果にこれらの状況が組み込まれています。 0.44
We defer the minor needed notational extensions to supplement for clarity. 明快さを補うために必要となる小音節拡張を推測する。 0.53
1. Similarly, Y (t) 1:t = {X (t) 1. 同様に、Y (t) 1:t = {X (t) 0.85
1:t 2 1:t 2 0.85
英語(論文から抽出)日本語訳スコア
i,t(cid:48) i,t(cid:48) 0.92
i,t(cid:48) | / |d(∞) i,t(cid:48) |. i,t(cid:48) | / |d(∞) i,t(cid:48) | 0.93
i,t(cid:48) , we use d(tf ) i,t(cid:48) では d(tf ) を使います。 0.74
1:t+1 already in D(t) 1:t+1 は既に D(t) 0.95
1:t (cid:54)= D(t+1) 1:t (cid:54)=D(t+1) 0.87
1:t , . . . 1:t , . . . 0.85
, d(∞) i,t(cid:48) (cid:105), where d(t(cid:48)) , d(∞) i,t(cid:48) (cid:105), where d(t(cid:48) 0.90
i,t(cid:48) is the initial value of the signal and d(∞) i,t(cid:48) i,t(cid:48)は信号の初期値であり、d(∞) i,t(cid:48) 0.94
1:t may be revised i.e., D(t) 1:tは、D(t)を書き換えることができる。 0.75
Thus, at prediction week t, the real-time forecasting problem is: Given D(t) 1:t, predict next k values of forecasting target(s), i.e. したがって、予測週tでは、リアルタイム予測問題は次のようになる: D(t) 1:t が与えられたとき、予測対象の次の k 値を予測する。 0.74
ˆyt+1:t+k. Typically for CDC settings and this paper, our time unit is week, k = 4 (up to 4 weeks ahead) and our target is COVID-19 mortality incidence (Deaths). yt+1:t+k。 通常、CDCの設定と本論文では、時間単位は週で、k = 4(最大4週間前)で、ターゲットはCOVID-19死亡率(死亡)です。 0.69
Revisions. Data revisions (‘backfill’) are common. 改訂。 データリビジョン(‘backfill’)が一般的です。 0.62
At prediction week t + 1, the real-time sequence D(t+1) 1:t+1 is available. 予測週 t + 1 では、リアルタイムシーケンス D(t+1) 1:t+1 が利用可能である。 0.77
In addition to the length of the sequences increasing by one (new data point), values of D(t+1) . 1つずつ増加するシーケンスの長さ(新しいデータポイント)に加えて、d(t+1)の値。 0.77
Note that previous work has studied backfill limited to Y (t), while we address it in both X (t) and Y (t). 以前の研究は、X (t) と Y (t) の両方で扱いながら、Y (t) に限定されたバックフィルを研究した。 0.70
Also note that the data in backfill is the same used for real-time forecasting, but just seen from a different perspective. また、バックフィル内のデータは、リアルタイムの予測に使用されるのと同じであるが、別の視点で見るだけである。 0.64
Backfill sequences: Another useful way we propose to look at backfill is by focusing on revisions of a single value. backfill sequences: バックフィルを検討するもう1つの便利な方法は、単一の値のリビジョンに焦点を当てることです。 0.70
Let’s focus on value of signal i at an observation week t(cid:48). 観測週間t(cid:48)におけるsignal iの価値に注目してみよう。 0.75
For this observation week, the value of the signal can be revised at any t > t(cid:48), which induces a sequence of revisions. この観測週間では、信号の値は任意の t > t(cid:48) で修正され、一連のリビジョンが引き起こされる。 0.66
We refer to revision week r ≥ 0 as the relative amount of time that has passed since the observation week t(cid:48). 我々は、リビジョン週間 r ≥ 0 を、観測週 t (cid:48) から経過した相対的な時間量として参照する。 0.75
Defn. 1. (Backfill Sequence BSEQ) For signal i and observation week t(cid:48), its backfill sequence is BSEQ(i, t(cid:48)) = (cid:104)d(t(cid:48) ) i,t(cid:48) , d(t(cid:48)+1) is the final/stable value of the signal. Defn 1. (バックフィルシーケンスBSEQ) 信号 i と観測週 t(cid:48) に対して、そのバックフィルシーケンスは BSEQ(i, t(cid:48)) = (cid:104)d(t(cid:48) ) i,t(cid:48) , d(t(cid:48)+1) である。 0.72
Defn. 2. (Backfill Error BERR) For revision week r of a backfill sequence, the backfill error is i,t(cid:48) − d(∞) BERR(r, i, t(cid:48)) = |d(t(cid:48)+r) Defn. Defn 2. (Backfill Error BERR) バックフィルシーケンスのリビジョンウィーク r に対して、バックフィルエラーは i,t(cid:48) − d(∞) BERR(r, i, t(cid:48)) = |d(t(cid:48)+r) Defn である。 0.71
3. (Stability time STIME) of a backfill sequence BSEQ is the revision week r∗ that is the minimum r for which the backfill error BERR <  for all r > r∗, i.e., the time when BSEQ stabilizes. 3. バックフィル列 BSEQ の (安定性時間 STIME) は、リビジョン週間 r∗ であり、すべての r > r∗ に対してバックフィル誤差 BERR < s となる最小 r であり、すなわち BSEQ が安定化する時間である。 0.81
Note: We ensured that BSEQ length is at least 7, and found that in our dataset most signals stabilize before r = 20. 注: BSEQ の長さが少なくとも7であることを確認し、我々のデータセットでは、ほとんどの信号が r = 20 よりも前に安定していることを発見した。 0.59
For d(∞) i,t(cid:48) , at the final week tf in our revisions dataset. d(∞) i,t(cid:48) の場合、最終週 tf は、我々のリビジョンデータセットである。 0.81
In case we do not find BERR <  in any BSEQ, we set STIME to the length of that BSEQ. 任意の BSEQ に BERR < > が存在しない場合、その BSEQ の長さに STIME を設定する。
訳抜け防止モード: BSEQ に BERR < > が存在しない場合。 私たちはそのBSEQの長さにSTIMEを設定しました。
0.83
We use  = 0.05. は 0.05 である。 0.68
2.1 Dataset description We collected important publicly available signals from a variety of trusted sources that are relevant to COVID-19 forecasting to form the COVID-19 Surveillance Dataset (CoVDS). 2.1 データセットの説明 私たちは、covid-19監視データセット(covd)を形成するために、covid-19予測に関連するさまざまな信頼できる情報源から、公開可能な重要なシグナルを収集しました。
訳抜け防止モード: 2.1 データセットの説明 私たちは、さまざまな信頼できる情報源から、重要な公開可能な信号を収集しました。 covds(covid-19 surveillance dataset)と呼ばれる。
0.59
See Table 1 for our 20 features (hence |Feat| = 21, including Deaths). 20の機能の表1(以下、 |Feat| = 21、Deathsを含む)を参照してください。 0.67
Our revisions dataset contains signals that we collected every week since April 2020, and ends on February 2021. 当社のリビジョンデータセットには、2020年4月から毎週収集され、2021年2月に終了するシグナルが含まれています。
訳抜け防止モード: リビジョンデータセットには 私たちは2020年4月から毎週収集し、2021年2月に終了しました。
0.64
Our analysis covers 30 observation weeks from mid-May 2020 to mid-December 2020 (to ensure all our backfill sequences are of length at least 7) for all |Reg| = 50 US states. 分析では、2020年5月中旬から2020年12月中旬までの30週間にわたって、すべての |Reg| = 50 US の州で、バックフィルシーケンスが少なくとも7 の期間を保証している。 0.56
Patient line-list: are traditional surveillance signals used in epidemiological models [34, 8, 5] derived from line-list records e g hospitalizations from CDC [7], positive cases, ICU admissions etc from COVID Tracking [13]. 患者ラインリスト: 疫学モデル[34, 8, 5]において, CDC[7], 陽性例, ICU[13]の入院歴から得られた従来型の監視信号である。 0.68
Testing: measure changes in testing also from CDC and COVID-Tracking e g tested population, negative tests, used before in [39]. テスト:[39]で以前使用されていた、CDCとCOVID-Tracking egの検査結果、負のテストも測定する。 0.76
Mobility: track people movement to several point of interests (POIs), from Google [28] and Apple [23], which can serve as a digital proxy for social distancing [3]. mobility: google [28] や apple [23] など,ソーシャルディスタンシングのディジタルプロキシとして機能する [3] など,いくつかのポイント (pois) への人々の移動を追跡する。 0.72
Exposure: digital signal measuring closeness between people at POIs, collected from mobile phones [10] and used before [39]. 露光: 携帯電話(10)から収集して[39]の前に使用するPOI間の近接性を測定するデジタル信号。 0.81
Social Survey: previously used [44, 39] CMU/Facebook Symptom Survey Data, which contains self-reported responses about COVID-19 symptoms of all household members. 社会的調査:[44, 39]cmu/facebookの症状調査データには、全世帯の新型コロナウイルス(covid-19)症状に関する自己報告回答が含まれている。
訳抜け防止モード: ソーシャルサーベイ : 前回使用 [44, 39 ] CMU / Facebook 症状サーベイデータ すべての世帯で新型コロナウイルスの症状が報告されている。
0.61
2.2 Observations We first study different facets of the significance of backfill in CoVDS. 2.2 観測 CoVDS におけるバックフィルの重要性の異なる側面について検討した。 0.63
Using our definitions, we generate a backfill sequence for every combination of signal, observation week, and region (not all signals are available for all regions). 定義を用いて、信号、観測週、領域の組み合わせごとにバックフィルシーケンスを生成する(すべての信号がすべての領域で利用できるわけではない)。 0.74
In total, we generate more than 30, 000 backfill sequences. 合計すると、30万以上のバックフィルシーケンスを生成します。 0.62
Backfill error BERR is significant. バックフィルエラー BERR は重要である。 0.64
We computed BERR for the initial values, i.e., BERR(r = 0, i, t(cid:48)), for all signals i and observation weeks t(cid:48). BERRを初期値、すなわちBERR(r = 0, i, t(cid:48))、および観測週t(cid:48)に対して計算した。 0.70
Obs. 1. (BERR across signals and regions) Compute the average BERR for each signal; the median of all these averages is 32%, i.e. Obs 1. (信号と領域にまたがるberr)各信号の平均berrを計算し、これらの平均値の中央値は32%である。 0.72
at least half of all signals are corrected by 32% of their initial value. 全ての信号の少なくとも半分は初期値の32%で補正される。 0.82
Similarly in at least half of the regions the signal corrections are 280% of their initial value. 同様に、少なくとも半分の領域では、信号補正はその初期値の280%である。 0.79
Features ERVisits, HospRate, +veInc, HospInc, Recovered, onVentilator, inICU TestResultsInc, -veInc, Facilities RetailRec, Grocery, Parks, Transit, WorkSpace, Resident, AppleMob ERVisits, HospRate, +veInc, HospInc, Recovered, onVentilator, inICU TestResultsInc, -veInc, facilities RetailRec, Grocery, Parks, Transit, WorkSpace, Resident, AppleMob 0.85
Exposure [10] DexA Social Survey [20] 露光[10]デキサ社会調査 [20] 0.77
[7, Testing 13] Mobility [28, 23] [7, 試験 13] 移動性[28, 23] 0.85
Table 1: List of features in our CoVDS 表1:CoVDSの機能のリスト 0.64
Type Patient LineList [7, 13] Type patient LineList [7, 13] 0.83
FbCLI, FbWiLi FbCLI、FbWiLi 0.79
3 3 0.85
英語(論文から抽出)日本語訳スコア
We also found large variation of BERR. また,BERRの変動も多かった。 0.53
For features (Figure 1a), compare avg. 特徴(第1a図)については、avgの比較。 0.61
BERR = 1743% of five most corrected features with 1.6% of the five least corrected features. BERR = 1743%の修正された5つの機能の1.6%が修正されていない。 0.69
Also, in contrast to related work that focuses on traditional surveillance data [45], perhaps unexpectedly, we found that digital indicators also have a significant BERR (average of 108%). また、従来の監視データに焦点を当てた関連研究(45)とは対照的に、デジタル指標にも有意なBERR(平均108%)があることがわかりました。 0.71
For regions (see Figure 1b), compare 1594% of the five most corrected regions with 38% of the five least corrected regions. 地域(図1b参照)では、最も修正された5つの領域の1594%と、修正されていない5つの領域の38%を比較している。
訳抜け防止モード: 地域(図1b参照) 最も訂正された5つの領域の1594 %と、修正されていない5つの領域の38 %を比較します。
0.65
(a) BERR per feat. a) berr per feat。 0.59
type (b) BERR per region 型 (b)地域ごとのBERR 0.77
(c) STIME per feat. (c)偉業ごとのSTIME。 0.68
type (d) STIME per region 型 (d)地域ごとのSTIME 0.83
Figure 1: BERR and STIME across feature type and regions, heat maps are log scaled. 図1: 特徴タイプと領域にわたるBERRとSTIME、ヒートマップはログスケールされます。 0.80
Stability time STIME is significant. 安定時間STIMEは重要である。 0.75
A similar analysis for STIME found significant variation across signals (from 1 weeks for to 21 weeks for COVID-19, see Figure 1c) and regions (from 1.55 weeks for GA to 3.83 weeks for TX, see Figure 1d). STIMEの同様の分析では、シグナル(COVID-19では1週間から21週間、図1cでは1.55週間、TXでは3.83週間)と地域(図1dでは1.55週間)の間で大きな変化があった。
訳抜け防止モード: STIMEの同様の分析では、シグナル間で有意な変動(COVID-19では1週間から21週間)がみられた。 図1c参照)およびリージョン(GAで1.55週からTXで3.83週間) 図1d参照。
0.68
This also impacts our target, thus, actual accuracy is not readily available which undermines real-time evaluation and decision making. これは我々の目標にも影響するため、リアルタイム評価や意思決定を損なうような実際の精度は容易には得られない。 0.58
Obs. 2. (STIME of features and target) Compute the average BERR for each signal; the average of all these averages for features is around 4 weeks and for our target Deaths is around 3 weeks, i.e. Obs 2. (特徴量と目標)各信号の平均BERRを計算する。これらの特徴量の平均は4週間、目的は3週間、すなわち3週間である。
訳抜け防止モード: Obs 2. (特徴量と目標値)各信号の平均 berr を計算する。 機能に関するこれらの平均の平均は約4週間です ターゲットの死亡率は3週間程度です
0.68
on average, it takes over 3 weeks to reach the stable values of features. 平均して 特徴の安定的な値に達するのに 3週間以上かかります 0.82
Backfill sequence BSEQ patterns. バックフィルシーケンスBSEQパターン。 0.74
There is significant similarity among BSEQs. BSEQには大きな類似点がある。 0.67
We cluster BSEQs via K-means using Dynamic Time Warping (DTW) as pair-wise distance (as DTW can handle sequences of varying magnitude and length). 我々は、動的時間ワープ(DTW)をペア距離としてK平均でBSEQをクラスタリングする(DTWは様々な大きさと長さのシーケンスを処理できる)。 0.68
We found five canonical categories of behaviors (see Figure 2), each of size roughly 11.58% of all BSEQs. その結果,BSEQの約11.58%の大きさの5つの標準的行動カテゴリーが得られた(図2参照)。 0.65
Also each cluster is not defined only by signal また、各クラスタは信号によってのみ定義されない 0.71
Figure 2: Five canonical backfill behaviours. 図2:5つの正準バックフィル動作。 0.53
Centroid BSEQ of each cluster, scaled between 0 and 1. 各クラスタのcentroid bseqは0から1にスケールした。 0.73
nor region. Hence there is a non-trivial similarity across both signals and regions. 地域もない。 したがって、信号と領域にまたがる非自明な類似性が存在する。 0.66
Obs. 3. (BSEQ similarity and variety) Five canonical behaviors were observed in our backfill sequences (Figure 2). Obs 3. (bseq類似性と多様性) 5つの正準挙動がバックフィルシーケンスで観察された(図2)。 0.68
No cluster has over 21% of BSEQs from the same region, and no cluster has over 14% of BSEQs from the same signal. 同じ領域からのBSEQの21%を超えるクラスタはなく、同じシグナルからのBSEQの14%を超えるクラスタも存在しない。 0.80
Model performance vs BERR. モデルパフォーマンス vs berr。 0.68
To study the relationship between model performance (via Mean Absolute Error MAE of a prediction) and BERR, we use REVDIFFMAE: it is the difference between MAE computed against real-time target value and one against the stable target value. モデル性能(予測の絶対誤差MAE)とBERRの関係を調べるために,REVDIFFMAEを用いて,リアルタイム目標値に対して計算したMAEと安定した目標値に対して計算したMAEとの差について検討する。
訳抜け防止モード: モデル性能(予測値の平均絶対誤差MAE)とBERRの関係を検討する。 我々は REVDIFFMAE を用いる : 実時間目標値に対して計算された MAE の差である そして1つは 安定目標値に対して
0.89
We analyze the top performing real-time Figure 3: BERR vs model REVDIFFMAE. リアルタイムのグラフ3: berr vs. model revdiffmaeを分析した。 0.58
forecasting models as per the comprehensive evaluation of all models in COVID-19 Forecast Hub [14]. 新型コロナウイルス予報ハブの全モデルの包括的評価による予測モデル [14] 0.63
YYG and UMASS-MB are mechanistic while CMUTS and GT-DC are statistical models. YYGとUMASS-MBは力学であり、CMUTSとGT-DCは統計モデルである。 0.58
The top performing ENSEMBLE is composed of all contributing models to the hub. 最上位のENSEMBLEはハブへのコントリビューションモデルで構成されている。 0.67
We expect a well-trained real-time model will have higher REVDIFFMAE with larger BERR in its target. 十分に訓練されたリアルタイムモデルは、より大きなBERRをターゲットとしたREVDIFFMAEがより高くなることを期待する。 0.52
However, in contrast to flu [37], here we found that more target backfill error does not necessarily mean worse performance. しかし、flu [37]とは対照的に、ターゲットのバックフィルエラーが多ければ、必ずしもパフォーマンスが悪化するとは限らないことが分かりました。
訳抜け防止モード: しかし、インフルエンザ[37 ]とは対照的に、ここでは より多くのターゲットバックフィルエラーは必ずしもパフォーマンスを悪化させるわけではない。
0.58
See Figure 3—YYG has even better performance with more revisions. 図3 - yygはさらに多くのリビジョンでパフォーマンスが向上している。 0.61
This may be due to the more complex backfill activity/dependencie s in COVID in comparison to the more regular seasonal flu. これは、より定期的な季節性インフルエンザと比較して、より複雑なバックフィル活動/依存性によって引き起こされる可能性がある。 0.49
Obs. 4. (Model performance and backfill) Relation between BERR and REVDIFFMAE can be non-monotonous and positively or negatively correlated depending on model and signal. Obs 4. (モデル性能とバックフィル) BERRとREVDIFFMAEの関係は、モデルと信号に依存する非単調で、正あるいは負の相関を持つ。 0.70
Figure 4: Real-time vs stable MAE. 図4: リアルタイム対安定MAE。 0.79
(a) GT-DC (b) YYG (a)GT-DC (b)YYG 0.76
4 Line ListTestingMobilityE xposureSocial SurveyFeature type101100101Backfil l Error 10.50-0.5-1Line ListTestingMobilityE xposureSocial SurveyFeature type0.00.51.01.52.02 .53.03.54.0Stability Time 0.40.20-0.2-0.401020 300.00.20.40.60.81.0 Early Decline0102030Early Increase0102030Stead y/Spike0102030Late rise0102030Mid DecreaseRevision weekBSeq value (0-1 scaled)0.00.20.40.60 .81.0Backfill Error400300200100010 0Real-time MAE - Stable MAEBackfill ErrorReal-time MAE - Stable MAE0.00.20.40.60.81. 01501005005010002505 00750100012501500175 0Real-time MAE02505007501000125 015001750Stable MAEEnsembleGT-DCYYGU Mass-MBCMU 4 Line ListTestingMobilityE xposureSocial SurveyFeature type101100101Backfil l Error 10.50-0.5-1Line ListTestingMobilityE xposureSocial SurveyFeature type0.00.51.01.52.02 .53.03.54.0Stability Time 0.40.20-0.2-0.401020 300.00.20.40.60.81.0 Early Decline0102030Early Increase0102030Stead y/Spike0102030Late rise0102030Mid DecreaseRevision weekBSeq value (0-1 scaled)0.00.20.40.60 .81.0Backfill Error400300200100010 0Real-time MAE - Stable MAEBackfill ErrorReal-time MAE - Stable MAE0.00.20.40.60.81. 01501005005010002505 00750100012501500175 0Real-time MAE02505007501000125 015001750Stable MAEEnsembleGT-DCYYGU Mass-MBCMU 0.54
英語(論文から抽出)日本語訳スコア
Real-time target values to measure model performance: Since targets undergo revisions (5% BERR on average), we study how this BERR affects real-time evaluation of models. モデル性能を測定するためのリアルタイムターゲット値: ターゲットがリビジョン(平均で5% berr)を受けているため、このberrがモデルの実時間評価にどのように影響するかを調べます。
訳抜け防止モード: 実時間目標値を用いたモデル性能の測定 : 以来 ターゲットはリビジョンを受ける(平均で5 % BERR)。 このBERRがモデルの実時間評価に与える影響について検討する。
0.74
From Figure 4, we see that the scores are not similar with real-time scores over-estimating model accuracy. 図4から、スコアはモデル精度を過大評価するリアルタイムスコアと似ていないことが分かります。 0.61
The average difference in scores is positive which implies that evaluators would overestimate models’ forecasting ability. スコアの平均的な違いは肯定的であり、評価者がモデルの予測能力を過大評価することを意味する。
訳抜け防止モード: スコアの平均的な違いは陽性で 評価者がモデル予測能力を過大評価することを意味する。
0.69
Obs. 5. MAE evaluated at real-time overestimates model performance by mean 9.6, with maximum for TX at 22.63. Obs 5. maeはモデル性能を平均9.6倍に過大評価し、最大txは22.63である。
訳抜け防止モード: Obs 5. maeが実時間評価 - モデルパフォーマンスを平均9.6で過大評価する 最大txは22.63。
0.66
t+k , i.e. the ’future’ of our target value at t + k. t+k, i。 ターゲット値の‘future’は t + k です。 0.69
t , so that using ˆyt as a surrogate for y(tf ) t y(tf ) の代理として yt を使用するように。 0.73
t t 1:t(cid:48)}t(cid:48)≤t, which includes our target Y (t) t t 1:t(cid:48)}t(cid:48)≤t。 0.74
and forecasts of models submitted on week t − k. Our goal is to refine y(t) そして、週 t − k に提出されたモデルの予測。我々の目標は y(t) を精製することである。 0.58
,∀t. Then, refining Meval is equivalent to refining y(t) t which leads to solving LBRP. そうです。 すると、Meval の精製は y(t) t の精製と等価であり、LBRP の解決に繋がる。 0.49
Thus, LBRP is a special case of BFRP0(Meval). したがって、LBRP は BFRP0(Meval) の特別な場合である。 0.75
3 Refining the future via B2F Our observations naturally motivate improving training and evaluation aspects of real-time COVID19 forecasting by leveraging revision information. 3B2Fによる将来予測は、リビジョン情報を活用することで、リアルタイムのCOVID19予測のトレーニングと評価の側面を自然に向上させる。 0.61
Thus, we propose the following two problems. そこで我々は,以下の2つの問題を提案する。 0.62
Let predictions of model M for week t + k be y(M, k)t. Since models are trained on real-time targets, y(M, k)t is the model’s estimate of target y(t+k) t+k . モデルはリアルタイムターゲットで訓練されているので、y(M, k)t は対象 y(t+k) t+k のモデルの推定値である。
訳抜け防止モード: 1週間のモデル m の予測を y(m, k) とする。 k)t. モデルは、リアルタイムのターゲットでトレーニングされる。 y(m, k)t はモデル のターゲット y(t+k ) t+k の推定値である。
0.80
k-week ahead Backfill Refinement Problem, BFRPk(M ): At prediction week t, we are given a revision dataset {D(t(cid:48)) 1:t . k-week ahead backfillfine problem, bfrpk(m ): prediction week tでは、リビジョンデータセット {d(t(cid:48)) 1:t が与えられる。 0.76
For a model M trained on real-time targets, we are also given history of model’s predictions till last week (cid:104)y(M, k)1, . リアルタイムターゲットに基づいてトレーニングされたモデルMについては、先週 (cid:104)y(M, k)1 までモデルの予測履歴を付与する。 0.80
. . y(M, k)t−1(cid:105) and prediction for current week y(M, k)t. Our goal is to refine y(M, k)t to better estimate the stable target y(tf ) Leaderboad Refinement problem, LBRP: At each week t, evaluators are given a current estimate of our target y(t) to ˆyt, a better estimate of y(tf ) to evaluate predictions of models provides a better indicator of their actual performance (i.e., we obtain a refined leaderboard of models). . . y(m, k)t−1(cid:105)と現在のウィークy(m, k)tの予測 目標はy(m, k)tを洗練し、安定したターゲットy(tf )リーダーボアドのリファインメント問題、lbrp: 各週tにおいて、エバリュエータは目標y(t)を現在の推定値に与えられ、モデルの予測を評価するためのy(tf )のより良い見積もりは、実際のパフォーマンスの指標を提供する(つまり、モデルの洗練されたリーダーボードを得る)。 0.81
Relating it to BFRP, assume a hypothetical model Meval whose predictions are real-time ground truth, i.e. BFRP に関連付けると、予測が実時間基底真理である仮説モデル Meval を仮定する。 0.78
y(Meval, 0)t = y(t) to better t estimate y(tf ) Overview: We leverage observations from Section 2 to derive Back2Future (B2F), a deep-learning model that uses revision information from BSEQ to refine predictions. y(Meval, 0)t = y(t) to better t estimate y(tf ) Overview: セクション2からの観測を利用して、BSEQのリビジョン情報を使用して予測を洗練するディープラーニングモデルBack2Future(B2F)を導出する。 0.85
Obs. 1 and 2 show that real-time values of signals are poor estimates of their stable versions. Obs 1および2は、信号のリアルタイム値が安定バージョンの推定に乏しいことを示している。 0.60
Therefore, we have to leverage patterns in BSEQ of past signals and exploit cross-signal similarities (Obs. したがって、過去の信号のBSEQのパターンを活用し、信号間の類似性(Obs)を活用する必要がある。
訳抜け防止モード: したがって、我々は 過去の信号のBSEQのパターンを活用し、クロス信号の類似性を利用する。
0.70
3) to extract information from BSEQs. 3)BSEQから情報を抽出する。 0.77
We also consider that the relation of models’ forecasts vs BERR of targets is complex (Obs. また、モデルの予測と目標のBERRの関係は複雑である(Obs)。
訳抜け防止モード: 私たちもそう考えています 対象モデルの予測とBERRの関係は複雑である(obs)。
0.65
4 and 5) to refine their predictions. 4および5)で予測を改良した。 0.74
B2F combines these ideas through its four modules: • GRAPHGEN: Generates a signal graph (where each node corresponds to a signal in Reg × Feat) whose edges are based on BSEQ curve similarities. B2Fはこれらのアイデアを4つのモジュールを通して結合する:• GRAPHGEN: エッジがBSEQ曲線の類似性に基づく信号グラフを生成する(各ノードはReg × Featの信号に対応する)。 0.82
• BSEQENC: Leverages the signal graph as well as temporal dynamics of BSEQs to learn a latent representation of BSEQs using a Recurrent Graph Neural Network. • BSEQENC: 信号グラフとBSEQの時間ダイナミクスを活用して、リカレントグラフニューラルネットワークを用いてBSEQの潜在表現を学習する。 0.82
• MODELPREDENC: Encodes the history of model’s predictions, real-time value of target, and past revisions of target through a recurrent neural network. • MODELPREDENC: モデルの予測履歴、ターゲットのリアルタイム値、ターゲットの過去のリビジョンを、リカレントニューラルネットワークを通じてエンコードする。 0.81
• REFINER: Combines encodings from BSEQENC and MODELPREDENC to predict the correction to model’s real-time prediction. • ReFINER: BSEQENCとMODELPREDENCのエンコーディングを組み合わせて、モデルのリアルタイム予測の修正を予測する。 0.87
In contrast to previous works that bring to attention only target BERR [37, 9], we aim to simultaneously model all BSEQ available till current week t using spatial and signal similarities in the temporal dynamics of BSEQ. BERR [37, 9] のみを対象とする従来の作業とは対照的に,BSEQ の時間力学における空間的・信号的類似性を用いて,現在 t まで利用可能なすべての BSEQ を同時にモデル化することを目指している。 0.71
Recent works that attempt to model spatial relations for COVID19 forecasting need explicitly structural data (like cross-region mobility) [32] to generate graph or use attention over temporal patterns of all region’s death trends. 新型コロナウイルス(COVID-19)の予測のための空間関係をモデル化しようとする最近の研究は、グラフを生成したり、すべての地域の死亡傾向の時間的パターンに注意を向けるために、明示的に構造データ(地域間移動など)を必要とする。
訳抜け防止モード: COVID19予測のための空間関係をモデル化しようとする最近の研究は、明示的に構造データ(クロス-リージョンモビリティなど)を必要とする [32] グラフを生成したり、すべての地域の死亡傾向の時間的パターンに注意を向ける。
0.72
B2F, in contrast, directly models the structural information of signal graph (containing feature nodes from each region) using BSEQ similarities. 一方、B2FはBSEQ類似性を用いて信号グラフ(各領域の特徴ノードを含む)の構造情報を直接モデル化する。 0.83
Thus, our goal is to first generate useful latent representations for each signal based on BSEQ revision information of that feature as well as features that have shown similar revision patterns in the past. そこで本研究の目的は,その特徴のBSEQリビジョン情報と,過去に類似したリビジョンパターンを示す特徴に基づいて,各信号に対して有用な潜在表現を生成することである。 0.73
Due to large number of signals that covers all regions, we cannot model relation between every pair using fully connected modules or attention similar to [24]. すべての領域をカバーする多くの信号のため、[24]に似た完全連結モジュールや注意を使って、すべてのペア間の関係をモデル化することはできない。 0.68
Therefore, we first construct a sparse graph between signals based on past BSEQ similarities. そこで我々はまず,過去のBSEQ類似性に基づく信号間のスパースグラフを構築する。 0.79
Then we inject this similarity information using Graph Convolutional Networks (GCNs) and combine it with deep sequential models to model temporal dynamics of BSEQ of each signal while combining information from BSEQ s of signals in the neighborhood of the graph. 次に、グラフ畳み込みネットワーク(GCN)を用いてこの類似情報を注入し、グラフ近傍の信号のBSEQsからの情報を組み合わせて、各信号のBSEQの時間的ダイナミクスをモデル化する深部逐次モデルと組み合わせる。 0.89
Further, we use these latent representations and leverage the past さらに、これらの潜在表現を使用し、過去を活用する。 0.50
t t 5 t t 5 0.85
英語(論文から抽出)日本語訳スコア
history of a model M’s predictions to refine its prediction. モデルmの予測の歴史は、その予測を洗練させる。 0.77
Thus, B2F solves BFRPk(M ) assuming M is a black box, accessing only its past forecasts. したがって、B2F は M がブラックボックスであると仮定して BFRPk(M ) を解き、過去の予測のみにアクセスする。 0.67
Our training process, that involves pre-training on model-agnostic auxiliary task, greatly improves training time for refining any given model M. Next we describe each of the components of B2F in detail. モデルに依存しない補助作業の事前訓練を含むトレーニングプロセスは、任意のモデルMを精製するためのトレーニング時間を大幅に改善する。
訳抜け防止モード: 私たちのトレーニングプロセスは、事前-モデルによるトレーニング-非依存的な補助タスクを含む。 次に、B2Fの各コンポーネントを詳しく説明します。
0.64
For the rest of this section, we will assume that we are forecasting k weeks ahead given data till current week t. GRAPHGEN. このセクションの残りの部分については、現在の週 t. graphgen までデータから k 週間先を予測していると仮定します。 0.66
It generates an undirected signal graph Gt = (V, Et)whose edges represent similarity in BSEQs between signals, where vertices V = F = Reg × Feat. エッジがBSEQの信号間の類似性を表す無向信号グラフ Gt = (V, Et) を生成し、V = F = Reg × Feat となる。 0.83
We measure similarity using DTW distance due to reasons described in Section 2. 第2節で説明されている理由によるDTW距離による類似度の測定を行う。 0.63
We compute the sum of DTW distances of BSEQs for each pair of nodes summed over t(cid:48) ∈ {1, 2, . t(cid:48) ∈ {1, 2, ... 上で和された各ノード対の bseqs の dtw 距離の和を計算する。 0.65
. . , t − 5}. . . , t − 5} である。 0.83
We threshold t(cid:48) till t − 5 to make the BSEQs to be of reasonable length (at least 5) to capture temporal similarity without discounting too many BSEQs. t(cid:48) から t − 5 まで BSEQ を適度な長さ (少なくとも5) にし、BSEQ の数が多すぎることなく時間的類似性を捉える。 0.80
The top τ node pairs with lowest total DTW distance are assigned an edge. 最下位の全dtw距離のτノード対はエッジに割り当てられる。 0.63
BSEQENC. bseqenc所属。 0.49
While we can model backfill sequences for each signal independently using a recurrent neural network, this doesn’t capture the behavioral similarity of BSEQ across signals. 各信号のバックフィルシーケンスを、リカレントニューラルネットワークを使って独立してモデル化することは可能だが、信号間のBSEQの振る舞いの類似性を捉えることはできない。 0.63
Using a fully-connected recurrent neural network which considers all possible interactions between signals also may not learn from the similarity information due to the sheer number of signals (50 × 21 = 1050) while greatly increasing the parameters of the model. 信号間の全ての相互作用を考慮に入れた完全接続されたリカレントニューラルネットワークを使用することで、信号の数(50 × 21 = 1050)によって類似性情報から学習することができない。 0.78
Thus, we utilize the structural prior of graph Gt generated by GRAPHGEN and train an autoregressive model BSEQENC which consists of graph recurrent neural Figure 5: BSEQENC Recurrent Module network to encode a latent representation for each of backfill sequence in Bt = {BSEQ(i, t) : i ∈ F}. そこで我々は GraphGEN が生成したグラフ Gt の構造的先行性を活用し,グラフ再帰的ニューラルフィギュア5: BSEQENC 反復モジュールネットワークを用いて,Bt = {BSEQ(i, t) : i ∈ F} の各バックフィルシーケンスの潜在表現を符号化する自己回帰モデル BSEQENC を訓練する。 0.89
At week t, BSEQENC is first pre-trained and then it is fine-tuned for a specific model M (more details later in this section). 週 t で、BSEQENC はまず事前訓練され、次に特定のモデル M に対して微調整される(詳細は後述)。 0.71
Our encoding process is in Figure 5. 私たちのエンコーディングプロセスは図5です。 0.78
Let BSEQt(cid:48)+r(i, t(cid:48)) be first r + 1 values of BSEQ(i, t(cid:48)) (till week t(cid:48) + r). BSEQt(cid:48)+r(i, t(cid:48)) を BSEQ(i, t(cid:48)) (till week t(cid:48) + r) の最初の r + 1 とする。 0.89
For a past week t(cid:48) and revision week r, we denote h(t(cid:48) i,t(cid:48) ∈ Rm to be the latent encoding i,t(cid:48) for any observation week of BSEQt(cid:48) t(cid:48) to be a learnable parameter h(0) r we combine latent r−1) encoding h(t(cid:48) r) i,t(cid:48) using a GRU (Gated Recurrent Unit) [11] cell to get the i,t(cid:48) intermediate embedding v(t(cid:48)) i,t . 過去1週間 t(cid:48) とリビジョンウィーク r に対して、h(t(cid:48) i,t(cid:48) ∈ Rm を、BSEQt(cid:48) t(cid:48) の観測週の潜時符号化 i,t(cid:48) と、学習可能なパラメータ h(0) r を h(t(cid:48) r) の符号化 h(t(cid:48) i,t(cid:48) を GRU (Gated Recurrent Unit) [11] セルで組み合わせて、i,t(cid:48) 中間埋め込み v(t(cid:48) i,t を得る。 0.86
Then, we leverage the signal graph Gt and pass the embeddings {v(t(cid:48) r) i,t(cid:48) 次に信号グラフGtを利用し、埋め込み {v(t(cid:48) r) i,t(cid:48) を渡す。 0.81
: i ∈ F} through a Graph Convolutional layer [25] to get h(t(cid:48) r) i,t(cid:48) : : i ∈ F} をグラフ畳み込み層 [25] を通して h(t(cid:48) r) i,t(cid:48) : 0.89
i ∈ Rm specific to signal i. i ∈ Rm は信号 i に比例する。 0.76
For each week t(cid:48) 毎週 t (cid:48) 0.71
r ≤ t. We initialize h(0) r ≤ t。 h(0) を初期化する 0.82
r = t(cid:48) + r and t(cid:48) ≤ t(cid:48) r = t(cid:48) + r and t(cid:48) ≤ t(cid:48) 0.89
and signal value d(t(cid:48) 信号値 d(t(cid:48) 0.86
(i, t(cid:48)) where t(cid:48) (i, t(cid:48)) where t(cid:48) 0.92
r) r v(t(cid:48) i,t(cid:48) = GRUBE(d(t(cid:48) r) r v(t(cid:48) i,t(cid:48) = GRUBE(d(t(cid:48) 0.87
i,t(cid:48) , h(t(cid:48) r−1) i,t(cid:48) i,t(cid:48) ,h(cid:48) r−1) i,t(cid:48) 0.91
r ) r ) ), r)。 r)。 ), 0.72
{h(t(cid:48) {h(t(cid:48) 0.94
i,t(cid:48) }i∈F = GConv(Gt,{v(t(cid:48) i,t(cid:48) }i・F = GConv(Gt,{v(t(cid:48) 0.86
i,t(cid:48) }i∈F ). i,t(cid:48) } である。 0.61
r ) r ) (1) r)。 r)。 (1) 0.81
r r+1) r+1) r r+1) r+1) 0.75
= FFNi(h(t(cid:48) =FFNi(h(t(cid:48)) 0.70
r) i,t(cid:48) contains information from BSEQt(cid:48) r) i,t(cid:48)は、BSEQt(cid:48)からの情報を含む 0.74
(i, t(cid:48)) and structural priors from Gt. (i, t(cid:48))およびGtの構造的先行性。 0.78
Using h(t(cid:48) r) i,t(cid:48) , by passing through a 2-layer feed-forward network FFNi: r) i,t(cid:48) ). h(t(cid:48) r) i,t(cid:48) を用いて、2層フィードフォワードネットワーク FFNi: r) i,t(cid:48) を通過する。 0.85
During inference, we only have access to real-time values of signals for i,t}i∈F }i∈F as input for BSEQENC. 推論中、BSEQENCの入力として、i,t}i・F }i・Fの信号のリアルタイム値にしかアクセスできない。 0.56
Iterating this l times この l 回を繰り返す. 0.36
Thus, h(t(cid:48) BSEQENC predicts the value d(t(cid:48) i,t(cid:48) ˆd(t(cid:48) i,t(cid:48) the current week. したがって、h(t(cid:48) bseqenc は現在の週に d(t(cid:48) i,t(cid:48) の値 d(t(cid:48) i,t(cid:48) を予測する。 0.77
We autoregressively predict h(t+l) through BSEQENC and using the output { ˆd(t+1) we get {h(t+l) MODELPREDENC. BSEQENC を通じて h(t+l) を自動回帰予測し、出力 {td(t+1) を用いて {h(t+l) MODELPREDENC を得る。 0.71
To learn from history of a model’s predictions and its relation to target revisions, MODELPREDENC encodes the history of model’s predictions, previous real-time targets, and revised (up to current week) targets using a Recurrent Neural Network. モデルの予測の歴史とターゲットリビジョンとの関係から学ぶために、modelpredencはモデルの予測履歴、以前のリアルタイムターゲットをエンコードし、リカレントニューラルネットワークを使用して(現在の週まで)ターゲットを改訂する。 0.76
Given a model M, for each observation week t(cid:48) ∈ {1, 2, . モデル m が与えられると、各観測週間 t(cid:48) ∈ {1, 2, . 0.86
. . , t−1−k}, we concatenate the model’s predictions y(M, k)t(cid:48), real-time target y(t(cid:48)+k) t(cid:48)+k ⊕ y(t) t(cid:48)+k, t(cid:48)+k where ⊕ is the concatenation operator. . . , t−1−k} では、モデルの予測 y(m, k)t(cid:48), 実時間対象 y(t(cid:48)+k) t(cid:48)+k) t(cid:48)+k, t(cid:48)+k, t(cid:48)+k を結合する。 0.83
A GRU is used to encode the sequence {C (t) t−1−k}: GRUは、シーケンス {C (t) t−1−k} を符号化するために使われる。 0.69
as seen on observation week t(cid:48) and revised target y(t) 観測週t(cid:48)と修正標的y(t)で見られるように 0.80
for each signal by initially passing {d(t) 最初にd(t)を渡すことで、各信号について 0.68
}i∈F where l is a hyperparameter. ここで l はハイパーパラメータである。 0.58
t(cid:48) = y(M, k)t(cid:48) ⊕ y(t(cid:48)+k) t(cid:48) = y(M, k)t(cid:48) > y(cid:48)+k) 0.97
}i∈F along with { ˆd(t+l) ihtmlf と { sd(t+l) 0.52
1 , . . . , C (t) 1 , . . . , C (t) 0.85
t(cid:48)+k as C t t(cid:48)+k as C t 0.88
i,t i,t 私は... 私は... 0.39
i,t i,t 私は... 私は... 0.39
{z(t) 1 , . {z(t) 1 , . 0.85
. . , z(t) . . , z(t) 0.85
t−1−k} = GRUME({C (t) t−1−k} = GRUME({C(t)) 0.80
1 , . . . , C (t) 1 , . . . , C (t) 0.85
t−1−k}) (2) t−1−k}) (2) 0.72
6 RNN(1)RNN(2)RNN(3)RN N(M)GConvSignal Graph 6 RNN(1)RNN(2)RNN(3)RN N(M)GConvSignal Graph 0.85
英語(論文から抽出)日本語訳スコア
REFINER. It leverages the information from above three modules of B2F to refine model M’s prediction for current week y(M, k)t. Specifically, it receives the latent encodings of signals {h(t+l) }i∈F from BSEQENC, z(t) t−k−1 from MODELPREDENC, and the model’s prediction y(M, k)t for week t. BSEQ encoding from different signals may have variable impact on refining the signal since a few signals may not very useful for current week’s forecast (e g , small revisions in mobility signals may not be important in some weeks). ReFINER It leverages the information from above three modules of B2F to refine model M’s prediction for current week y(M, k)t. Specifically, it receives the latent encodings of signals {h(t+l) }i∈F from BSEQENC, z(t) t−k−1 from MODELPREDENC, and the model’s prediction y(M, k)t for week t. BSEQ encoding from different signals may have variable impact on refining the signal since a few signals may not very useful for current week’s forecast (e g , small revisions in mobility signals may not be important in some weeks). 0.72
Moreover, because different models use signals from CoVDS differently, we may need to focus on some signals over others to refine its prediction. さらに、異なるモデルではcovdの信号が異なるため、予測を洗練するために他のモデルよりも信号に焦点を合わせる必要があるかもしれない。 0.60
Therefore, we first take attention over BSEQ encodings from all signals {h(t+l) }i∈F w.r.t y(M, k)t. We use (cid:16) multiplicative attention mechanism with parameter w ∈ Rm based on [43]: (cid:88) したがって、まず、すべての信号 {h(t+l) }ihtmlf w.r.t y(m, k)t からのbseqエンコーディングに注目し、 [43]: (cid:88) に基づくパラメータ w ∈ rm の乗算注意機構を用いる。 0.84
(cid:17) i,t (cid:17) 私は... 0.59
i,t αi = softmaxi(y(M, k)twT 私は... αi = Softmaxi(y(M, k)twT 0.65
h ht+l i,t ), ht+l i,t) である。 0.72
¯h(t) = i∈F sh(t) = ihtmlf 0.51
αiht+l i,t αiht+l i,t 0.74
. (3) Finally we combine ¯h(t) and z(t) t−k−1 through a two layer feed-forward layer FNNRF which outputs a 1-dim value followed by tanh activation to get the correction γt ∈ [−1, 1] i.e., γt = tanh(FFNRF(¯h(t) ⊕ z(t) t−k−1)). . (3) 最後に、t と z(t) t−k−1 を2層フィードフォワード層 FNNRF に結合し、1-dim の値を出力し、続いてtanh を活性化して補正 γt ∈ [−1, 1] を得る。
訳抜け防止モード: . (3) 最後に、th(t ) と z(t ) t−k−1 を2層フィード(フォワード層 FNNRF)で結合し、1-次元の値を出力し、その後タンの活性化を行い、補正 γt ∈ [ −1) を得る。 1 ] すなわち、γt = tanh(FFNRF(t) ) z(t ) t−k−1 ) である。
0.82
Finally, the refined prediction is y∗(M, K)t = (γ + 1)y(M, K)t. Note that we limit the correction by B2F by at-most the magnitude of model’s prediction because the average BERR of targets is 4.9% and less than 0.6% of them have BERR over 1. 最後に、洗練された予測は y∗(M, K)t = (γ + 1)y(M, K)t であり、ターゲットの平均BERRが4.9%で、その0.6%以下が 1 以上の BERR を持つため、B2F による補正をほぼモデルの予測の大きさで制限する。 0.89
Therefore, we limit the refinement of prediction to this range. したがって、予測の洗練をこの範囲に限定する。 0.69
Training: There are two steps of training involved for B2F: 1) model agnostic autoregressive BSEQ prediction task to pre-train BSEQENC; 2) model specific training for BFRP. トレーニング:B2Fのトレーニングには2つのステップがある: 1) モデル非依存型自己回帰型BSEQ予測タスクから事前訓練型BSEQENC; 2) BFRPのモデル特異的トレーニング。 0.73
Autoregressive BSEQ prediction: Pre-training on auxillary tasks to improve the quality of latent embedding is a well-known technique for deep learning methods [18, 35]. 自己回帰的BSEQ予測:潜伏埋め込みの品質向上のための補助的タスクの事前学習は、ディープラーニング手法 [18, 35] においてよく知られている手法である。 0.68
We pre-train BSEQENC to predict the next values of backfill sequences {x(t(cid:48) }i∈F . バックフィルシーケンス {x(t(cid:48) } の次の値を予測するためにbseqencを事前トレーニングする。 0.58
Note that we only use BSEQ sequences t(cid:48),i {BSEQt(t(cid:48), i)}i∈F ,t(cid:48)<t available till current week t for training BSEQENC. 注意すべき点は、BSEQシーケンス t(cid:48), i {BSEQt(t(cid:48), i)}i・F ,t(cid:48)<t は、BSEQENCをトレーニングするために現在の t まで使用できないことである。
訳抜け防止モード: BSEQシーケンス t(cid:48), i { BSEQt(t(cid:48 ) i>i・F, t(cid:48)<tは, BSEQENCをトレーニングするために, 現在のtまで利用可能である。
0.85
The training procedure in itself is similar to Seq2Seq prediction problems [42] where for initial epochs we use the ground truth inputs at each step (teacher forcing) and then transition to using output predictions of previous time step by recurrent module as input to next time step. トレーニング手順自体がSeq2Seq予測問題[42]と似ており、最初のエポックでは各ステップ(教師の強制)で基底真理入力を使用し、次に次のステップで繰り返しモジュールを入力として、前のタイムステップの出力予測に遷移する。 0.81
Once we pre-train BSEQENC, we can use it for BFRP as well as LBRP for current week t for any model M. Fine-tuning usually takes less than half the epochs required for pre-training enabling quick refinement of multiple models in parallel. ファインチューニングは通常、事前トレーニングに必要なエポックの半分以下で、複数のモデルを並列に高速に洗練することができる。
訳抜け防止モード: ひとたび前-BSEQENCを訓練します。 M. Fine - チューニングは通常、プレ-トレーニングに必要なエポックの半分以下で、複数のモデルを並列に高速に洗練できる。
0.50
Model specific end-to-end training: Given the pre-trained BSEQENC, we train, end-to-end, the parameters of all modules of B2F. モデル固有のエンドツーエンドトレーニング: 事前トレーニングされたBSEQENCを前提として、B2Fの全モジュールのパラメータであるエンドツーエンドをトレーニングする。
訳抜け防止モード: モデル固有端点 - to - end training : pre-trained bseqenc b2fのすべてのモジュールのパラメータをトレーニングします。
0.77
The training set consists of past model predictions (cid:104)y(M, k)1, y(M, k)2, . トレーニングセットは過去のモデル予測(cid:104)y(M, k)1, y(M, k)2, から成り立っている。 0.84
. . y(M, k)t−1(cid:105) and backfill sequences {BSEQt(t(cid:48), i)}i∈F ,t(cid:48)≤t. . . y(M, k)t−1(cid:105)およびバックフィル列 {BSEQt(t(cid:48), i)}i・F ,t(cid:48)≤t。 0.83
For datapoint y(M, k)t(cid:48) of week t(cid:48) < t − k, we input backfill sequences of signals whose observation week is t(cid:48) into BSEQENC to get latent encodings {h(t) from MODELPREDENC t(cid:48),i}i∈F and y(M, k)t(cid:48) to get γt(cid:48). 1週間 t(cid:48) < t − k のデータポイント y(M, k)t(cid:48) に対して、観測ウィークが t(cid:48) である信号のバックフィルシーケンスを BSEQENC に入力し、MODELPREDENC t(cid:48),i}F および y(M, k)t(cid:48) から遅延エンコード {h(t) を取得し、γt(cid:48) を得る。 0.78
Overall, we optimize the loss and finally REFINER ingests z(t) . 全体として、損失を最適化し、最終的にREFINERがz(t)を取り込みます。 0.54
Following real-time forecasting, we train B2F each week from scratch (including pre-training). リアルタイムの予測の後、私たちは毎週、(事前トレーニングを含む)スクラッチからB2Fをトレーニングします。 0.49
Throughout training and forecasting for week t, we use Gt as input to BSEQENC since it capture average similarities in BSEQs till current week t. 週tのトレーニングと予測を通じて,BSEQENCへの入力としてGtを用い,BSEQの平均類似性を現在の週tまで取得した。 0.76
t(cid:48),i}i∈F . t(cid:48),i}i・F。 0.64
We also derive z(t) (cid:17)2 t(cid:48) z(t) (cid:17)2 t(cid:48) も導き出す。 0.75
function: L(t) =(cid:80)t−k−1 関数 L(t) = (cid:80)t−k−1 0.79
t(cid:48) , {ht γt(cid:48)y(M, k)t(cid:48) − y(t) t(cid:48)+k t(cid:48) , {ht γt(cid:48)y(M, k)t(cid:48) − y(t) t(cid:48)+k 0.90
(cid:16) r+1) (cid:16) r+1) 0.75
i=1 4 Back2Future Experimental Results i=1 back2future実験結果 0.68
In this section, we describe a detailed empirical study to evaluate the effectiveness of our framework B2F. 本稿では,フレームワークB2Fの有効性を評価するための実証的研究について述べる。 0.73
All experiments were run in an Intel i7 4.8 GHz CPU with Nvidia Tesla A4 GPU. 全ての実験はIntel i7 4.8 GHz CPUとNvidia Tesla A4 GPUで行われた。 0.81
The model typically takes around 1 hour to train for all regions. このモデルは通常、すべての地域でのトレーニングに約1時間かかる。 0.66
Supplementary contains additional details and results (code, CoVDS dataset, all hyperparameters and results for k = 1). Supplementaryには追加の詳細と結果(コード、CoVDSデータセット、すべてのハイパーパラメータ、k = 1)の結果)が含まれている。 0.64
Setup: We perform real-time forecasting of COVID-19 related mortality (Deaths) for 50 US states from beginning of June 2020 (referred as week 1) to end of December 2020 (referred as week T (cid:48)). 設定:2020年6月上旬(第1週)から2020年12月末(第t週(第48週))までの米国50州で、covid-19関連死亡率(死亡率)のリアルタイム予測を行う。 0.71
For each week t, we only use the CoVDS dataset available till current week t (including BSEQs for all signals revised till t) for training. トレーニングには、毎週tまで利用可能なCoVDSデータセット(tまで修正されたすべての信号のBSEQを含む)のみを使用します。 0.74
As described in Section 3, for each week, we first pre-train BSEQENC on BSEQ data and then train all components of B2F for each model we aim to refine. 第3節で説明されているように、私たちはまず、BSEQデータ上でBSEQENCを事前訓練し、次に、洗練を目指す各モデルに対してB2Fのすべてのコンポーネントをトレーニングします。 0.60
Then, we predict the forecasts Deaths y∗(M, k)t for each model M. We observed that setting hyperparameter τ = c|F| where c ∈ {2, 3, 4, 5} provided best results. 次に、各モデル M に対する死の予測 y∗(M, k)t を予測し、c ∈ {2, 3, 4, 5} が最良の結果をもたらすようなハイパーパラメータ τ = c|F| を設定することを観察した。 0.73
Note that τ influences the τ が影響する点に注意。 0.63
7 7 0.85
英語(論文から抽出)日本語訳スコア
T (cid:48)(cid:80)T (cid:48) T (cid:48)(cid:80)T (cid:48) 0.78
T (cid:48)(cid:80)T (cid:48) T (cid:48)(cid:80)T (cid:48) 0.78
Cand. Model Refining Model MAE MAPE MAE MAPE MAE MAPE Cand モデル精錬モデル mae mape mae mape mae mape 0.49
k=2 Table 2: B2F consistently refines all models. k=2 表2: B2Fは一貫して全てのモデルを洗練します。 0.55
% improvements in MAE and MAPE scores averaged over all regions from May 2020 to Dec 2020 2020年5月から12月にかけて,全地域平均 mae 得点と mape 得点の % 改善 0.64
sparsity of the graph as well as efficiency of model since sparser graphs lead to fast inference across GConv layers. スパーサーグラフはGConv層にまたがる高速な推論をもたらすため、グラフの空白度とモデルの効率性。 0.79
We also found setting l = 5 provided best performance. 設定 l = 5 で最高の性能が得られることもわかりました。 0.54
Evaluation: We evaluate the refined prediction y∗(M, K)t against the most revised version of the target, i.e. 評価: 改良された予測 y∗(M, K)t をターゲットの最も改訂されたバージョンである、すなわち、評価する。 0.80
y(tf ) t(cid:48)+k. y(tf ) t(cid:48)+k。 0.90
In our case, tf is second week of Feb 2021. 我々の場合、tfは2021年2月の第2週です。 0.68
For evaluation, we use standard metrics t+k − y∗(M, K)t| for a week t in this domain [37, 1]. 評価には標準測度 t+k − y∗(M, K)t| をこの領域 [37, 1] の 1 週間 t に使用する。 0.80
Let absolute error of prediction e(M, k)t = |y(tf ) i=1 | e(M, k)t | and (b) Mean and model M. We use (a) Mean Absolute Error MAE(M ) = 1 i=1 e(M, k)t / | y(tf ) t+k |. 予測の絶対誤差 e(m, k)t = |y(tf ) i=1 | e(m, k)t | and (b) mean and model m (a) mean absolute error mae(m ) = 1 i=1 e(m, k)t / | y(tf ) t+k | を用いる。 0.83
Absolute Percentage Error MAPE = 1 Candidate models: We focus on refining/rectifying the top models from the COVID-19 Forecast Hub described in Section 2; these represent different variety of statistical and mechanistic models. 絶対的なパーセンテージエラーMAPE = 1候補モデル: 第2節に記載されている新型コロナウイルスの予測ハブから上位モデルの精製と修正に焦点を当てます。 0.62
Baselines: Due to the novel problem, there are no standard baselines. ベースライン: 新しい問題のため、標準ベースラインはありません。 0.64
(a) FFNtrain a FFN REG: regression task for that takes as inputs model’s prediction and real-time target to predict stable target. (a)FFN REG: FFN REG: 入力モデルの予測とリアルタイムターゲットを考慮し、安定した目標を予測する回帰タスク。 0.81
(b) PREDRNN: use the MODELPREDENC architecture and append a linear layer that takes encodings from MODELPREDENC and model’s prediction and train it to refine the prediction. b) PreDRNN: MODELPREDENCアーキテクチャを使用し、MODELPREDENCのエンコーディングとモデルの予測を取得し、それをトレーニングして予測を洗練させる線形レイヤを追加します。 0.81
(c) BSEQREG: similarly, only use BSEQENC architecture and append a linear layer that takes encodings from BSEQENC and model’s prediction to predict stable target. (c)BSEQREG: 同様に、BSEQENCアーキテクチャのみを使用し、BSEQENCのエンコーディングとモデルの予測による安定したターゲット予測を行う線形レイヤを追加する。 0.88
(d) BSEQREG2: similar to BSEQREG but remove the graph convolutional layers and retain only RNNs. (d)BSEQREG2:BSEQREGに似ているが、グラフ畳み込み層を取り除き、RNNのみを保持する。 0.79
Note that FFNREG and PREDRNN do not use revision data. FFNREGとPreDRNNはリビジョンデータを使用しない。 0.60
BSEQREG and BSEQREG2 don’t use past predictions of the model. BSEQREGとBSEQREG2は過去のモデル予測を使わない。 0.75
Refining real-time model-predictions: See Table 2. real-time model-prediction: 表2を参照。 0.73
We compare the mean percentage improvement (i.e., decrease) in MAE and MAPE scores of refined predictions over model’s predictions on stable targets over 50 US states2. アメリカ合衆国50州以上の安定目標に対するモデル予測と比較して,maeおよびmapeスコアの平均パーセンテージ改善(つまり減少)とmapeスコアを比較した。 0.79
FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG BSEQREG2 BSEQREG B2F 0.95
-0.35 -2.23 -1.45 1.42 5.18 -2.42 -3.02 2.24 2.13 12.68 -2.08 -3.84 -1.25 -1.78 8.84 -3.25 -8.2 -2.16 1.58 5.21 -5.24 -8.17 -0.67 1.46 8.75 -0.35 -2.23 -1.45 1.42 5.18 -2.42 -3.02 2.24 2.13 12.68 -2.08 -3.84 -1.25 -1.78 8.84 -3.25 -8.2 -2.16 1.58 5.21 -5.24 -8.17 -0.67 1.46 8.75 0.34
k=4 0.81 -1.13 -5.2 0.72 3.61 -1.86 -2.81 1.6 1.42 9.64 -1.37 -9.29 -6.65 -0.61 6.8 -1.44 -5.99 -2.29 0.06 3.94 -3.19 -3.75 -0.38 2.11 6.93 k=4 0.81 -1.13 -5.2 0.72 3.61 -1.86 -2.81 1.6 1.42 9.64 -1.37 -9.29 -6.65 -0.61 6.8 -1.44 -5.99 -2.29 0.06 3.94 -3.19 -3.75 -0.38 2.11 6.93 0.46
k=3 0.48 -1.51 -1.74 0.37 3.64 -2.04 -2.62 2.31 3.6 11.42 -4.62 -5.57 -2.57 -1.99 7.04 -2.16 -5.19 -2.13 -1.26 3.25 -2.87 -3.32 -0.73 2.74 5.84 k=3 0.48 -1.51 -1.74 0.37 3.64 -2.04 -2.62 2.31 3.6 11.42 -4.62 -5.57 -2.57 -1.99 7.04 -2.16 -5.19 -2.13 -1.26 3.25 -2.87 -3.32 -0.73 2.74 5.84 0.46
-0.12 -1.57 -2.73 0.37 5.47 -1.51 -3.41 3.51 3.84 12.59 -1.34 -6.99 -0.7 -2.26 5.98 -5.74 -7.54 -1.88 0.86 4.92 -4.93 -8.21 -0.57 1.05 10.48 -0.12 -1.57 -2.73 0.37 5.47 -1.51 -3.41 3.51 3.84 12.59 -1.34 -6.99 -0.7 -2.26 5.98 -5.74 -7.54 -1.88 0.86 4.92 -4.93 -8.21 -0.57 1.05 10.48 0.34
-0.29 -3.78 -3.21 0.22 3.9 -6.07 -3.95 2.42 3.55 10.67 -3.89 -4.16 -3.72 -1.53 7.64 -3.17 -7.82 -0.67 0.45 4.74 -1.95 -6.3 -0.19 2.47 7.62 -0.29 -3.78 -3.21 0.22 3.9 -6.07 -3.95 2.42 3.55 10.67 -3.89 -4.16 -3.72 -1.53 7.64 -3.17 -7.82 -0.67 0.45 4.74 -1.95 -6.3 -0.19 2.47 7.62 0.34
0.36 -2.36 -4.78 0.28 6.3 -0.49 -3.26 0.57 2.27 8.97 -3.06 -5.81 -5.45 -0.43 5.27 -4.84 -7.43 -2.31 0.03 3.49 -6.7 -9.1 -0.12 2.84 6.28 0.36 -2.36 -4.78 0.28 6.3 -0.49 -3.26 0.57 2.27 8.97 -3.06 -5.81 -5.45 -0.43 5.27 -4.84 -7.43 -2.31 0.03 3.49 -6.7 -9.1 -0.12 2.84 6.28 0.34
ENSEMBLE GT-DC ENSEMBLE GT-DC 0.72
YYG UMASS-MB YYG UMASS-MB 0.72
CMU-TS (a) Average % CMU-TS (a)平均% 0.70
decrease of MAE (b) % improve. 前の減少 (b) %改善。 0.62
in MAE for each week Figure 6: (a) B2F refines ENSEMBLE predictions significantly for most states. 図6: (a)B2Fは、ほとんどの州でENSEMBLE予測を大幅に洗練します。 0.71
(b) efficacy of B2F ramps up within 6 weeks of revision data. b) 改訂データから6週間以内にb2fの有効性が上昇する。 0.73
First, we observe that B2F is the only method, compared to baselines, that improves scores for all candidate models showcasing the necessity of incorporating backfill information (unlike FFNREG and PREDRNN) and model prediction history (unlike BSEQREG and BSEQREG2). まず,B2F はベースラインと比較して唯一,バックフィル情報(FFNREG や PreDRNN と異なり)とモデル予測履歴(BSEQREG や BSEQREG2)を組み込むことの必要性を示すすべての候補モデルのスコアを改善する方法である。 0.88
We achieve impressive avg. 私たちは素晴らしいavgを達成します。 0.52
improvements of 6.65% and 6.95% in MAE and MAPE respectively with improvements decreasing with increasing k. For all candidate models, B2F shows improvement over 10% in over 25 states すべての候補モデルにおいて、B2Fは25以上の州で10%以上の改善を示し、それぞれ6.65%と6.95%の改善が、kの増加に伴って改善が減少する。
訳抜け防止モード: MAEおよびMAPEの6.65%と6.95%の改善は、kの増加に伴って改善が減少する。 B2Fは25州で10%以上改善している
0.73
2Results described are statistically significance due to Wilcox signed rank test (α = 0.05) over 5 runs 2 Wilcox 符号付きランクテスト (α = 0.05) による 5 ラン以上の統計的に重要である。 0.70
8 0123456051015202530W eek No.0.00.10.20.30.40. 50.60.7% improv. 8 01234560510202530Wee k No.0.00.10.20.30.40. 50.60.7%即興。 0.54
in MAEEnsembleGT-DCYYGU Mass-MBCMU MAEEnsembleGT-DCYYGU Mass-MBCMU 0.54
英語(論文から抽出)日本語訳スコア
and over 15% in 5 states (NJ, LA, GA, CT, MD). 5つの州(nj、la、ga、ct、md)で15%以上を占めています。 0.68
Thanks to B2F refinement, CMU-TS and GT-DC which are ranked 3th and 4th in COVID-19 Forecast Hub, now are able to outperform all the models in the hub (except for ENSEMBLE) with impressive 7.17% and 4.13% improvements in MAE respectively. B2Fの改良により、CMU-TSとGT-DCは、COVID-19 Forecast Hubで3位と4位にランクインし、ハブ内の全モデル(ENSEMBLEを除く)をそれぞれ7.17%と4.13%改善した。 0.73
UMASS-MB, ranked 2nd, is improved by 11.24%. UMASS-MBは2位であり、11.24%改善されている。 0.46
B2F also improves ENSEMBLE, which is the current best performing model of the hub, by 3.6% - 5.18% making B2F refined ENSEMBLE the best COVID-19 forecasting model. b2fはまた、現在のハブのベストパフォーマンスモデルであるアンサンブルを3.6%から5.18%改善し、b2fをcovid-19予測モデルとして洗練されたものにした。 0.50
Notably, B2F improves ENSEMBLE by over 5% in 38 states, with IL and TX experiencing over 15% improvement. 特に、B2Fは38州でENSEMBLEを5%以上改善し、ILとTXは15%以上改善されている。 0.73
Rectifying real-time model-evaluation: We evaluate the efficacy of B2F in rectifying the real-time evaluation scores for LBRP problem. リアルタイムモデル評価: LBRP問題に対するリアルタイム評価スコアの修正におけるB2Fの有効性を評価する。 0.74
We noted in Obs 5 that real-time MAE was lower than stable MAE by 9.6 on average. Obs 5では、リアルタイムMAEは平均9.6倍の安定MAEよりも低かった。 0.74
The difference between B2F rectified estimates MAE stable MAE was reduced to 4.4, a 51.7% decrease (Figure 7). B2F補正値とMAE安定値との差は4.4に減少し、51.7%減少した(第7図)。
訳抜け防止モード: B2F補正値の違い MAE 安定MAE は 4.4 に減少した。 51.7%減少(図7)。
0.80
This results in increased MAE scores across most regions towards stable estimates. この結果、ほとんどの領域でのMAEスコアは安定な推定に向かって上昇する。 0.51
Eg: We reduce the MAE difference in large highly populated states such as GA by 26.1% (from 22.52 to 16.64) and TX by 90% (from 10.8 to 1.04) causing increase in MAE scores from real-time estimates by 5.88 and 9.4 respectively. Eg: GA(22.52から16.64まで)やTX(10.8から1.04まで)といった大規模人口の多い州ではMAE差が26.1%減少し, それぞれ5.88と9.4のMAEスコアが増加した。 0.76
Refinement as function of data availability: Note that during the initial weeks of the pandemic, we have access to very little revision data both in terms of length and number of BSEQ. データ可用性機能としてのリファインメント:パンデミックの最初の数週間の間に、BSEQの長さと数の両方で非常に少ないリビジョンデータにアクセスできることに注意してください。 0.78
So we evaluate the mean performance improvement for each week across all regions (Figure 6b). そこで、各地域で毎週の平均性能改善を評価した(図6b)。 0.79
B2F’s performance ramps up and quickly stabilizes in just 6 weeks. B2Fの性能は上昇し、わずか6週間で急速に安定する。 0.79
Since signals need around 4 weeks (Obs 2) to stabilize, this ramp up time is impressive. 信号の安定化には約4週間 (obs2) を要するため、この上昇時間は印象的である。 0.74
Thus, B2F needs small amount of revision data from to improve model performance. したがって、B2Fはモデル性能を改善するために少量のリビジョンデータを必要とする。 0.70
B2F adapts to anomalies During real-time forecasting it is important for models to be robust to anomalous data revisions. B2Fは異常に適応する リアルタイム予測では、モデルが異常なデータ修正に対して堅牢であることが重要である。 0.61
This is especially true during initial stages of epidemic when data collection is not full streamlined and may experience large revisions. これは、データ収集が完全に合理化されておらず、大きなリビジョンを経験する可能性がある場合に、流行の初期段階において特に当てはまる。 0.51
Consider observation week 5 (first week of June) where there was an abnormally large revision to deaths nationwide (Figure 8a) when the BERR was 48%. 観測週5(6月第1週)では、berrが48%の時、全国で異常に大きな死亡例が修正された(第8a図)。 0.63
B2F still provided significant improvements for most model predictions (Figure 8b). B2Fは依然としてほとんどのモデル予測に大幅な改善をもたらした(図8b)。 0.60
Specifically ENSEMBLE’s predictions are refined to be up to 74.2% closer to stable target. 具体的には、ENSEMBLEの予測は74.2%まで安定目標に近づくように洗練されている。 0.67
Figure 7: B2F rectified MAE are closer to stable MAE 図 7: B2F 修正 MAE は安定 MAE に近い 0.92
5 Conclusion We introduced and studied the challenging multi-variate backfill problem using COVID-19 as an example, introducing new problems to this space. 5 結論 新型コロナウイルス(covid-19)を例として,多変量バックフィル問題を紹介し,検討した。 0.61
We presented Back2Future (B2F), the novel deep-learning method to model this phenomena, which exploits our observations of cross-signal similarities using Graph Recurrent Neural Networks to refine predictions and rectify evaluations for a wide range of models. この現象をモデル化する新しいディープラーニング手法back2future (b2f) を提示し,グラフリカレントニューラルネットワークを用いたクロスシグナル類似性の観測を活用し,予測を洗練し,幅広いモデルに対する評価を修正した。 0.81
Our extensive experiments showed that leveraging similarity among backfill patterns via our proposed method leads to impressive improvements in all the top models at the CDC COVID-19 Forecast Hub. 提案手法により,バックフィルパターン間の類似性を活かすことで,CDC COVID-19 Forecast Hubの上位モデルに顕著な改善が得られた。 0.78
In fact, we improved even the best performing model up to 15%. 実際、最高のパフォーマンスモデルでさえ15%まで改善しました。 0.67
As future work, our work can potentially help improve data collection, e g we pointed systematic differences between regions, which can also have implications for equity due to uneven reporting capabilities. 今後の作業として、当社の作業はデータ収集の改善に役立つ可能性があり、例えば、リージョン間の系統的な差異を指摘しました。
訳抜け防止モード: 将来の仕事として、我々の仕事は潜在的に役立つ データ収集の改善 地域によって系統的な違いを指摘しました 不均一な報告能力によって 株式に影響を及ぼす可能性もあります
0.67
We emphasize that we used the CoVDS dataset as is, but our characterization can be helpful for anomaly detection [14, 22]. 私たちはCoVDSデータセットをそのまま使用したが、その特徴は異常検出 [14, 22] に役立つと強調した。 0.77
We can also study how backfill can effect uncertainty calibration and quantification in time-series analysis [41, 47]. また, 時系列解析において, バックフィルが不確実なキャリブレーションや定量化にどのように影響するかを検討できる [41, 47]。 0.60
Another direction can be to explore situations where revision history is not temporally uniform across all features due revisions of different frequency or aperiodic revisions which B2F currently can not ingest without pre-processing. もう一つの方向性は、b2fが前処理なしでは取り込めない異なる頻度のリビジョンや非周期リビジョンのために、リビジョン履歴がすべての機能に対して時間的に均一でない状況を探ることである。 0.60
Although our dataset is public/anonymized without any sensitive patient information, there might be limited potential for misuse of our algorithms and/or data sources. 私たちのデータセットは、センシティブな患者情報なしで公開/匿名化されていますが、アルゴリズムやデータソースの誤用の可能性は限られています。 0.60
(b) % decrease in MAE due to B2F refinement on week 5 targets (b)週5目標におけるB2F改質によるMAEの減少 0.82
(a) Revision of US deaths on week 5 (a)第5週の米国人死亡の修正 0.86
Figure 8: B2F adapts to abnormally high revisions 図8:B2Fは異常に高いリビジョンに適応する 0.72
9 02505007501000 1250 1500 1750 2000Rectified MAE02505007501000125 0150017502000Stable MAEEnsembleGT-DCYYGU Mass-MBCMU246810No. 9 02505007501000 1250 1500 1750 2000Rectified MAE02507501000125015 0017502000Stable MaEEnsembleGT-DCYYGU Mass-MBCMU246810No 0.68
Weeks350040004500500 05500600065007000750 0DeathsStableReal-ti meEnsembleGT-DCYYGUM ass-MBCMU-TSModels60 4020020406080% improvement MAE Weeks350040004500500 05500600065007000750 0DeathsStableReal-ti meEnsembleGT-DCYYGUM ass-MBCMU-TSModels60 4020020406080%改善MAE 0.21
英語(論文から抽出)日本語訳スコア
6 Acknowledgements This paper is based on work partially supported by the NSF (Expeditions CCF-1918770, CAREER IIS-2028586, RAPID IIS-2027862, Medium IIS-1955883, CCF-2115126), CDC MInD program, ORNL, and funds/computing resources from Georgia Tech. 6 認定 本論文は, NSF (Expeditions CCF-1918770, CAREER IIS-2028586, RAPID IIS-2027862, Medium IIS- 1955883, CCF-2115126), CDC MInDプログラム, ORNL, ジョージア工科大学からの資金・計算資源を部分的に支援した研究に基づいている。 0.65
References [1] Bijaya Adhikari, Xinfeng Xu, Naren Ramakrishnan, and B Aditya Prakash. 参照: Bijaya Adhikari、Xinfeng Xu、Naren Ramakrishnan、B Aditya Prakash。 0.57
“Epideep: Exploiting embeddings for epidemic forecasting”. 『epi deep: exploiting embeddeds for epidemic forecasting』。 0.74
In: Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 第25回知識発見・データマイニング国際会議(ACM SIGKDD International Conference on Knowledge Discovery & Data Mining)の開催。 0.69
2019, pp. 577–586. 2019年、p。 577–586. 0.75
[2] Nick Altieri, Rebecca L Barter, James Duncan, Raaz Dwivedi, Karl Kumbier, Xiao Li, Robert Netzorg, Briton Park, Chandan Singh, Yan Shuo Tan, Tiffany Tang, Yu Wang, Chao Zhang, and Bin Yu. [2] Nick Altieri, Rebecca L Barter, James Duncan, Raaz Dwivedi, Karl Kumbier, Xiao Li, Robert Netzorg, Briton Park, Chandan Singh, Yan Shuo Tan, Tiffany Tang, Yu Wang, Chao Zhang, Bin Yu 0.79
“Curating a COVID-19 Data Repository and Forecasting County-Level Death Counts in the United States”. 新型コロナウイルスデータレポジトリの運用と、米国における郡レベルの死亡数予測」。 0.51
In: Harvard Data Science Review (Feb. 8, 2021). ハーバード・データサイエンス・レビュー(2021年2月8日)。 0.58
https://hdsr.mitpres s.mit.edu/pub/p6isyf 0g. https://hdsr.mitpres s.mit.edu/pub/p6isyf 0g 0.29
DOI: 10 . 1162 / 99608f92 . DOI:10。 1162/99608f92。 0.64
1d4e0dae. URL: https://hdsr.mitpres s.mit.edu/pub/p6isyf 0g. 1d4e0dae。 URL: https://hdsr.mitpres s.mit.edu/pub/p6isyf 0g 0.39
[3] Sercan Arik, Chun-Liang Li, Jinsung Yoon, Rajarishi Sinha, Arkady Epshteyn, Long Le, Vikas Menon, Shashank Singh, Leyou Zhang, Martin Nikoltchev, et al “Interpretable Sequence Learning for Covid-19 Forecasting”. [3]Sercan Arik, Chun-Liang Li, Jinsung Yoon, Rajarishi Sinha, Arkady Epshteyn, Long Le, Vikas Menon, Shashank Singh, Leyo Zhang, Martin Nikoltchev, et al “Interpretable Sequence Learning for Covid-19 Forecasting”。 0.88
In: Advances in Neural Information Processing Systems 33 (2020). In: Advances in Neural Information Processing Systems 33 (2020)。 0.80
[4] Matthew Biggerstaff, Michael Johansson, David Alper, Logan C Brooks, Prithwish Chakraborty, David C Farrow, Sangwon Hyun, Sasikiran Kandula, Craig McGowan, Naren Ramakrishnan, et al “Results from the second year of a collaborative effort to forecast influenza seasons in the United States”. 4]matthew biggerstaff氏、michael johansson氏、david alper氏、logan c brooks氏、prithwish chakraborty氏、david c farrow氏、sangwon hyun氏、sasikiran kandula氏、craig mcgowan氏、naren ramakrishnan氏ら、“米国におけるインフルエンザの季節を予測するための協力活動の2年目からの成果”です。
訳抜け防止モード: Matthew Biggerstaff, Michael Johansson, David Alper, Logan C Brooks, Prithwish Chakraborty, David C Farrow, Sangwon Hyun, Sasikiran Kandula Craig McGowan氏、Naren Ramakrishnan氏など“共同作業の第2年の結果” 米国ではインフルエンザの季節を予報する」と述べた。
0.75
In: Epidemics 24 (2018), pp. 第24話(2018年)、p。 0.29
26–33. [5] Logan C. Brooks, David C. Farrow, Sangwon Hyun, Ryan J. Tibshirani, and Roni Rosenfeld. 26–33. Logan C. Brooks氏、David C. Farrow氏、Sangwon Hyun氏、Ryan J. Tibshirani氏、Roni Rosenfeld氏。 0.77
“Nonmechanistic forecasts of seasonal influenza with iterative one-week-ahead distributions”. 季節性インフルエンザの非機械的予測と1週間の反復分布 0.66
en. In: PLOS Computational Biology 14.6 (June 2018). エン PLOS Computational Biology 14.6 (2018年6月)。 0.52
Ed. by Cecile Viboud, e1006134. Ed 作者はCecile Viboud, e1006134。 0.58
ISSN: 1553-7358. ISS:1553-7358。 0.42
DOI: 10.1371/journal.pcbi .1006134. DOI10.1371/journal.p cbi.1006134 0.48
URL: https://dx.plos.org/ 10. URL: https://dx.plos.org/ 10。 0.54
1371/journal.pcbi.10 06134 (visited on 05/02/2019). 1371/journal.pcbi.10 06134(5/02/2019) 0.54
[6] Andrea Carriero, Michael P Clements, and Ana Beatriz Galvão. アンドレア・カリエロ、マイケル・P・クレメンツ、アナ・ベアトリス・ガルバン。 0.48
“Forecasting with Bayesian multivariate vintage-based VARs”. ベイズ多変量ビンテージベースVARの予測」 0.48
In: International Journal of Forecasting 31.3 (2015), pp. In: International Journal of Forecasting 31.3 (2015), pp。 0.84
757–768. [7] CDC. 757–768. [7]CDC。 0.72
Coronavirus Disease 2019 (COVID-19). コロナウイルス病2019(COVID-19)。 0.64
2020. URL: https : / / www . 2020. URL: https : / / www である。 0.86
cdc . gov / cdc所属。 gov / 0.78
coronavirus/2019-nco v/cases-updates/. 新型コロナウイルス/2019-ncov/cases-upd ates/。 0.19
[8] Prithwish Chakraborty, Pejman Khadivi, Bryan Lewis, Aravindan Mahendiran, Jiangzhuo Chen, Patrick Butler, Elaine O Nsoesie, Sumiko R Mekaru, John S Brownstein, Madhav V Marathe, et al “Forecasting a moving target: Ensemble models for ILI case count predictions”. 8]Prithwish Chakraborty, Pejman Khadivi, Bryan Lewis, Aravindan Mahendiran, Jiangzhuo Chen, Patrick Butler, Elaine O Nsoesie, Sumiko R Mekaru, John S Brownstein, Madhav V Marathe, et al “Forecasting a moving target: Ensemble model for ILI case count predictions”。 0.81
In: Proceedings of the 2014 SIAM international conference on data mining. In: 2014年SIAM国際データマイニング会議の開催。 0.63
SIAM. 2014, pp. SIAM 2014年、p。 0.63
262–270. [9] Prithwish Chakraborty, Bryan Lewis, Stephen Eubank, John S. Brownstein, Madhav Marathe, and Naren Ramakrishnan. 262–270. 9]Prithwish Chakraborty、Bryan Lewis、Stephen Eubank、John S. Brownstein、Madhav Marathe、Naren Ramakrishnan。 0.71
“What to know before forecasting the flu”. 「インフルエンザを予知する前に何を知るか」 0.82
In: PLoS Computational Biology 14.10 (Oct. 2018). In: PLoS Computational Biology 14.10 (Oct. 2018)。 0.89
ISSN: 1553-734X. ISS: 1553-734X。 0.39
DOI: 10.1371/journal.pcbi .1005964. DOI10.1371/journal.p cbi.1005964 0.48
URL: https://www.ncbi.nlm .nih.gov/pmc/article s/PMC6193572/ (visited on 08/16/2020). URL: https://www.ncbi.nlm .nih.gov/pmc/article s/PMC6193572/ 0.44
Judith A Chevalier, Jason L Schwartz, Yihua Su, Kevin R Williams, et al Measuring Movement and Social Contact with Smartphone Data: A Real-time Application to COVID-19. Judith A Chevalier, Jason L Schwartz, Yihua Su, Kevin R Williams, et al Measurementing Movement and Social Contact with smartphone Data: A Real-time Application to COVID-19。 0.91
Tech. rep. Cowles Foundation for Research in Economics, Yale University, 2021. 技術だ 2021年、イェール大学カウルズ研究財団(rep. cowles foundation for research in economics)を設立。 0.57
[10] [11] Kyunghyun Cho, B. V. Merrienboer, Dzmitry Bahdanau, and Yoshua Bengio. [10] 十一 九ングヒョンチョ、B.V.メリエンボエ、Dzmitry Bahdanau、Yoshua Bengio 0.68
“On the Properties of Neural Machine Translation: Encoder-Decoder Approaches”. 「ニューラルネットワーク翻訳の性質について:エンコーダ-デコーダアプローチ」 0.72
In: ArXiv abs/1409.1259 (2014). ArXiv abs/1409.1259 (2014)。 0.80
[12] Michael P Clements and Ana Beatriz Galvão. 12]michael p clementsとana beatriz galvão。 0.57
“Data revisions and real-time forecasting”. 「データリビジョンとリアルタイム予測」。 0.73
In: Oxford Research Encyclopedia of Economics and Finance. 院 オックスフォード大学経済学・金融学の百科事典。 0.45
2019. [13] COVID-Tracking. 2019. 13]covid-19追跡。 0.66
The COVID Tracking Project. 新型コロナウイルスの追跡プロジェクトです 0.43
2020. URL: https://covidtrackin g.com. 2020. URL: https://covidtrackin g.com 0.83
10 10 0.85
英語(論文から抽出)日本語訳スコア
[14] Estee Y Cramer, Velma K Lopez, Jarad Niemi, Glover E George, Jeffrey C Cegan, Ian D Dettwiller, William P England, Matthew W Farthing, Robert H Hunter, Brandon Lafferty, et al “Evaluation of individual and ensemble probabilistic forecasts of COVID-19 mortality in the US”. Estee Y Cramer氏、Velma K Lopez氏、Jarad Niemi氏、Glover E George氏、Jeffrey C Cegan氏、Ian D Dettwiller氏、William P England氏、Matthew W Farthing氏、Robert H Hunter氏、Brandon Lafferty氏、その他「米国でのCOVID-19死亡の個人およびアンサンブル確率予測の評価」。
訳抜け防止モード: [14 ]Estee Y Cramer, Velma K Lopez, Jarad Niemi, Glover E George, Jeffrey C Cegan, Ian D Dettwiller, William P England Matthew W Farthing氏、Robert H Hunter氏、Brandon Lafferty氏らは、“米国内での新型コロナウイルスの死亡率の個人的およびアンサンブル予測の評価”を行った。
0.86
In: medRxiv (2021). medRxiv (2021年)。 0.53
[15] Dean Croushore. [15]ディーン・クルーショア。 0.55
“Forecasting with real-time data vintages”. リアルタイムデータビンテージによるフォエキャスト”。 0.75
In: The Oxford handbook of オックスフォードのハンドブック。 0.40
economic forecasting (2011), pp. 経済予測(2011年)、p。 0.66
247–267. [16] Aron Culotta. 247–267. Aron Culotta (複数形 Aron Culottas) 0.66
“Towards detecting influenza epidemics by analyzing Twitter messages”. Twitterメッセージを分析してインフルエンザの流行を検知する。 0.72
In: Proceedings of the first workshop on social media analytics. 院 ソーシャルメディア分析に関する最初のワークショップの成果。 0.49
2010, pp. 115–122. 2010年、p。 115–122. 0.77
[17] Songgaojun Deng, Shusen Wang, Huzefa Rangwala, Lijing Wang, and Yue Ning. [17]ソンガオジュン・デン、周泉王、フゼファ・ランワラ、リョン・ワン、ユエ・ニン。 0.45
“ColaGNN: Cross-location Attention based Graph Neural Networks for Long-term ILI Prediction”. ColaGNN: 長期ILI予測のためのクロスロケーションアテンションに基づくグラフニューラルネットワーク”。 0.80
In: Proceedings of the 29th ACM International Conference on Information & Knowledge Management. 第29回情報・知識管理国際会議(ACM International Conference on Information & Knowledge Management)の開催。 0.69
2020, pp. 245–254. 2020年、p。 245–254. 0.77
J. Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. J. Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova。 0.82
“BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”. “bert: 言語理解のための深い双方向トランスフォーマーの事前学習”。 0.68
In: NAACL-HLT. NAACL-HLT所属。 0.71
2019. Jeremy Ginsberg, Matthew H Mohebbi, Rajan S Patel, Lynnette Brammer, Mark S Smolinski, and Larry Brilliant. 2019. Jeremy Ginsberg, Matthew H Mohebbi, Rajan S Patel, Lynnette Brammer, Mark S Smolinski, Larry Brilliant 0.80
“Detecting influenza epidemics using search engine query data”. 「検索エンジンクエリデータによるインフルエンザ流行の検出。」 0.86
In: Nature 457.7232 (2009), pp. in: nature 457.7232 (2009), pp。 0.79
1012–1014. 1012–1014. 0.71
[18] [19] [20] Delphi Group. [18] [19] デルフィグループ[20]。 0.73
COVID Symptom Survey. 新型コロナウイルスの症状調査。 0.35
https://cmu- delphi.github.io/del phi- https://cmu- delphi.github.io/del phi- 0.39
epidata/symptom-surv ey/. epidata/symptom-surv ey/ 0.47
2021. Inga Holmdahl and Caroline Buckee. 2021. インガ・ホルムダールとキャロライン・バッキー 0.62
“Wrong but Useful — What Covid-19 Epidemiologic Models Can and Cannot Tell Us”. Covid-19 Epidemiological Models Can and Can and Not Tell Us”。 0.54
In: NEJM 383.4 (2020), pp. in: nejm 383.4 (2020), pp.。 0.70
303–305. [21] 303–305. [21] 0.78
[22] Hajar Homayouni, Indrakshi Ray, Sudipto Ghosh, Shlok Gondalia, and Michael G Kahn. Hajar Homayouni, Indrakshi Ray, Sudipto Ghosh, Shlok Gondalia, Michael G Kahn。 0.56
“Anomaly Detection in COVID-19 Time-Series Data”. 新型コロナウイルスの時系列データにおける異常検出」 0.45
In: SN Computer Science 2.4 (2021), pp. SN Computer Science 2.4 (2021), pp。 0.70
1–17. [23] Apple Inc. Apple Mobility Trends Reports. 1–17. [23]apple inc. apple mobility trendsのレポート。 0.77
2020. URL: www . 2020. URL:www。 0.76
apple . com / covid19 / アップル。 http://www.com/covid -19/ 0.36
mobility. [24] Xiaoyong Jin, Yu-Xiang Wang, and Xifeng Yan. 移動性 [24]Xiaoyong Jin、Yu-Xiang Wang、Xifeng Yan。 0.69
“Inter-Series Attention Model for COVID-19 新型コロナウイルスの「シリーズ間注意モデル」 0.37
Forecasting”. In: ArXiv abs/2010.13006 (2020). 予測”。 ArXiv abs/2010.13006 (2020)。 0.67
[25] Thomas N Kipf and Max Welling. 25]トーマス・n・キップとマックス・ウェリング 0.64
“Semi-supervised classification with graph convolutional グラフ畳み込みによる半教師付き分類 0.65
networks”. In: arXiv preprint arXiv:1609.02907 (2016). ネットワーク”。 arXiv preprint arXiv:1609.02907 (2016)。 0.82
[26] Vasileios Lampos, Tijl De Bie, and Nello Cristianini. 26]vasileios lampos, tijl de bie, nello cristianini。 0.43
“Flu detector-tracking epidemics on Twitter”. Flu detector-tracking epidemics on Twitter”. Twitter 0.80
In: Joint European conference on machine learning and knowledge discovery in databases. in:joint european conference on machine learning and knowledge discovery in database(英語) 0.82
Springer. 2010, pp. Springer 2010年、p。 0.68
599–602. [27] Shenghua Liu, Bryan Hooi, and Christos Faloutsos. 599–602. He27] Shenghua Liu, Bryan Hooi, Christos Faloutsos。 0.69
“Holoscope: Topology-and-spike aware fraud detection”. ホロスコープ:Topology-and-Spike aware fraud detection”。 0.62
In: Proceedings of the 2017 ACM on Conference on Information and Knowledge Management. In: 2017 ACM on Conference on Information and Knowledge Managementの開催。 0.75
2017, pp. 1539–1548. 2017年、p。 1539–1548. 0.75
[28] Google LLC. [28] Google LLC。 0.81
Google COVID-19 Community Mobility Reports. Google COVID-19 Community Mobility Reports 0.93
2020. URL: https://www. 2020. URL: https://www。 0.88
google.com/covid19/m obility/. google.com/covid19/m obility/ 0.34
[29] C Jessica E Metcalf and Justin Lessler. 29]cジェシカ・e・メトカーフとジャスティン・レッスラー 0.55
“Opportunities and challenges in modeling emerging 新興のモデリングにおける機会と課題 0.64
infectious diseases”. In: Science 357.6347 (2017), pp. 感染症”。 in: science 357.6347 (2017), pp. 0.74
149–152. [30] Dave Osthus, Ashlynn R Daughton, and Reid Priedhorsky. 149–152. 30] Dave Osthus, Ashlynn R Daughton, Reid Priedhorsky。 0.69
“Even a good influenza forecasting model can benefit from internet-based nowcasts, but those benefits are limited”. 優れたインフルエンザ予測モデルであっても、インターネットベースのnowcastsの恩恵を受けることができますが、そのメリットは限られています。 0.46
In: PLoS computational biology 15.2 (2019), e1006599. in: plos computational biology 15.2 (2019), e1006599。 0.86
[31] Dave Osthus, James Gattiker, Reid Priedhorsky, Sara Y Del Valle, et al “Dynamic Bayesian influenza forecasting in the United States with hierarchical discrepancy (with discussion)”. [31]Dave Osthus氏、James Gattiker氏、Reid Priedhorsky氏、Sara Y Del Valle氏、その他"階層的な不一致(議論を伴う)を伴う米国でのダイナミックベイズインフルエンザの予測"。 0.74
In: Bayesian Analysis 14.1 (2019), pp. In: Bayesian Analysis 14.1 (2019), pp。 0.87
261–312. [32] G. Panagopoulos, Giannis Nikolentzos, and M. Vazirgiannis. 261–312. G. Panagopoulos, Giannis Nikolentzos, M. Vazirgiannis 0.64
“United We Stand: Transfer Graph Neural Networks for Pandemic Forecasting”. 「団結して」転校 パンデミック予測のためのグラフニューラルネットワーク。 0.53
In: ArXiv abs/2009.08388 (2020). ArXiv abs/2009.08388 (2020)。 0.77
[33] George Panagopoulos, Giannis Nikolentzos, and Michalis Vazirgiannis. [33]George Panagopoulos, Giannis Nikolentzos, Michalis Vazirgiannis 0.68
“Transfer Graph Neural Networks for Pandemic Forecasting”. 「パンデミック予報のためのトランスファーグラフニューラルネットワーク」 0.67
In: Proceedings of the AAAI Conference on Artificial Intelligence. 人工知能学会(AAAI Conference on Artificial Intelligence)の略。 0.72
2021. [34] Sen Pei, Sasikiran Kandula, Wan Yang, and Jeffrey Shaman. 2021. [34]セン・ペイ、サシキラン・カンドゥラ、ワン・ヤン、ジェフリー・シャーマン。 0.66
“Forecasting the spatial transmission of influenza in the United States”. 「米国におけるインフルエンザの空間的感染の予知」 0.62
In: Proceedings of the National Academy of Sciences 115.11 (2018), pp. In: Proceedings of the National Academy of Sciences 115.11 (2018), pp。 0.85
2752–2757. 2752–2757. 0.71
[35] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Alec Radford氏、Karthik Narasimhan氏、Tim Salimans氏、Ilya Sutskever氏。 0.67
“Improving language understanding with unsupervised learning”. 『言語改良』 教師なしの学習で理解すること。 0.61
In: (2018). 2018年(昭和18年)。 0.20
11 11 0.85
英語(論文から抽出)日本語訳スコア
[36] Prashant Rangarajan, Sandeep K Mody, and Madhav Marathe. Prashant Rangarajan, Sandeep K Mody, Madhav Marathe. [36] Prashant Rangarajan, Sandeep K Mody, Madhav Marathe. 0.65
“Forecasting dengue and influenza incidences using a sparse representation of Google trends, electronic health records, and time series data”. 「Googleトレンド、電子健康記録、時系列データの疎らな表現を用いたデング熱とインフルエンザの発症予測」 0.68
In: PLoS computational biology 15.11 (2019), e1007518. in: plos computational biology 15.11 (2019), e1007518。 0.86
[37] Nicholas G. Reich, Logan C. Brooks, Spencer J. [37]ニコラス・g・ライヒ、ローガン・c・ブルックス、スペンサー・j 0.56
Fox, Sasikiran Kandula, Craig J. McGowan, Evan Moore, Dave Osthus, Evan L. Ray, Abhinav Tushar, Teresa K. Yamana, Matthew Biggerstaff, Michael A. Johansson, Roni Rosenfeld, and Jeffrey Shaman. Fox, Sasikiran Kandula, Craig J. McGowan, Evan Moore, Dave Osthus, Evan L. Ray, Abhinav Tushar, Teresa K. Yamana, Matthew Biggerstaff, Michael A. Johansson, Roni Rosenfeld, Jeffrey Shaman 0.88
“A collaborative multiyear, multimodel assessment of seasonal influenza forecasting in the United States”. 「米国での季節インフルエンザ予報の多年多モデル共同評価」 0.53
eng. In: Proceedings of the National Academy of Sciences of the United States of America 116.8 (2019), pp. エン In: Proceedings of the National Academy of Sciences of the United States of America 116.8 (2019), pp。 0.57
3146–3154. 3146–3154. 0.71
ISSN: 1091-6490. ISS:1091-6490。 0.40
DOI: 10.1073/pnas.1812594 116. DOI10.1073/pnas.1812 594116 0.43
[38] Alexander Rodríguez, Nikhil Muralidhar, Bijaya Adhikari, Anika Tabassum, Naren Ramakrishnan, and B Aditya Prakash. Alexander Rodríguez, Nikhil Muralidhar, Bijaya Adhikari, Anika Tabassum, Naren Ramakrishnan, B Aditya Prakash。
訳抜け防止モード: [38 ]Alexander Rodríguez, Nikhil Muralidhar, Bijaya Adhikari, Anika Tabassum、Naren Ramakrishnan、B Aditya Prakash。
0.73
“Steering a Historical Disease Forecasting Model Under a Pandemic: Case of Flu and COVID-19”. パンデミック下の歴史的疾患予測モデルの構築:インフルエンザとCOVID-19の事例」 0.74
In: Proceedings of the AAAI Conference on Artificial Intelligence. 人工知能学会(AAAI Conference on Artificial Intelligence)の略。 0.72
2021. [39] Alexander Rodríguez, Anika Tabassum, Jiaming Cui, Jiajia Xie, Javen Ho, Pulak Agarwal, Bijaya Adhikari, and B. Aditya Prakash. 2021. 39]Alexander Rodríguez, Anika Tabassum, Jiaming Cui, Jiajia Xie, Javen Ho, Pulak Agarwal, Bijaya Adhikari, B. Aditya Prakash。 0.81
“DeepCOVID: An Operational Deep Learning-Driven Framework for Explainable Real-Time COVID-19 Forecasting”. DeepCOVID: 説明可能なリアルタイムCOVID-19予測のための運用用ディープラーニング駆動フレームワーク。 0.60
In: Proceedings of the AAAI Conference on Artificial Intelligence. 人工知能学会(AAAI Conference on Artificial Intelligence)の略。 0.72
2021. Jeffrey Shaman and Alicia Karspeck. 2021. ジェフリー・シャマンとアリシア・カルスペック 0.68
“Forecasting seasonal outbreaks of influenza”. 『インフルエンザの季節流行を予知する』 0.70
In: Proceedings of the National Academy of Sciences 109.50 (2012), pp. In: Proceedings of the National Academy of Sciences 109.50 (2012), pp。 0.86
20425–20430. 20425–20430. 0.71
[40] [41] Gautam Singh, Jaesik Yoon, Youngsung Son, and Sungjin Ahn. [40] [41]Gautam Singh,Jaesik Yoon,Youngsung Son,Sungjin Ahn 0.74
“Sequential neural processes”. sequential neural process"の略。 0.79
[42] In: Advances in Neural Information Processing Systems 32 (2019). [42] In: Advances in Neural Information Processing Systems 32 (2019)。 0.82
Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Ilya Sutskever, Oriol Vinyals, Quoc V. Le 0.68
“Sequence to Sequence Learning with Neural Networks”. ニューラルネットワークを用いたシーケンス学習」。 0.59
In: NIPS. 2014. 略称はNIPS。 2014. 0.68
[43] Ashish Vaswani, Noam M. Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. 43]Ashish Vaswani, Noam M. Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin 0.77
“Attention is All you Need”. 「注意はあなたが必要とするすべてです。」 0.64
In: ArXiv abs/1706.03762 (2017). ArXiv abs/1706.03762 (2017)。 0.78
[44] Peng-Wei Wang, Wei-Hsin Lu, Nai-Ying Ko, Yi-Lung Chen, Dian-Jeng Li, Yu-Ping Chang, and Cheng-Fang Yen. [44]Peng-Wei Wang、Wei-Hsin Lu、Nai-Ying Ko、Yi-Lung Chen、Dian-Jeng Li、Yu-Ping Chang、Cheng-Fang Yen。 0.66
“COVID-19-related information sources and the relationship with confidence in people coping with COVID-19: Facebook survey study in Taiwan”. covid-19関連情報ソースとcovid-19対応者の信頼との関係:台湾におけるfacebook調査 0.67
In: Journal of medical Internet research 22.6 (2020), e20021. In: Journal of Medical Internet Research 22.6 (2020), e20021。 0.92
[45] Shihao Yang, Mauricio Santillana, and Samuel C Kou. [45]シハオ・ヤン、モーリシオ・サンティラナ、サミュエル・C・クー。 0.56
“Accurate estimation of influenza epidemics using Google search data via ARGO”. ARGOによるGoogle検索データによるインフルエンザ流行の正確な推定」。 0.71
In: Proceedings of the National Academy of Sciences 112.47 (2015), pp. In: Proceedings of the National Academy of Sciences 112.47 (2015), pp。 0.85
14473–14478. 14473–14478. 0.71
[47] [46] Changchang Yin, Ruoqi Liu, Dongdong Zhang, and Ping Zhang. [47] [46]Changchang Yin、Ruoqi Liu、Dongdong Zhang、Ping Zhang。 0.77
“Identifying sepsis subphenotypes via time-aware multi-modal auto-encoder”. タイムアウェアなマルチモーダルオートエンコーダによるセプシスサブフェノタイプ同定」。 0.71
In: Proceedings of the 26th ACM SIGKDD international conference on knowledge discovery & data mining. 第26回ACM SIGKDD国際会議「知識発見とデータマイニング」の開催。 0.66
2020, pp. 862–872. 2020年、p。 862–872. 0.77
Jaesik Yoon, Gautam Singh, and Sungjin Ahn. Jaesik Yoon, Gautam Singh, Sungjin Ahn 0.59
“Robustifying Sequential Neural Processes”. 連続ニューラルプロセスのRobustifying Sequential Neural Processes”。 0.73
In: Proceedings of the 37th International Conference on Machine Learning. 第37回「機械学習に関する国際会議」開催。 0.73
Ed. by Hal Daumé III and Aarti Singh. Ed Hal Daumé IIIとAarti Singhによる。 0.68
Vol. 119. Proceedings of Machine Learning Research. Vol。 119. 機械学習研究の歩み。 0.78
PMLR, 13–18 Jul 2020, pp. PMLR, 13-18 Jul 2020, pp。 0.89
10861–10870. 10861–10870. 0.71
URL: http://proceedings.m lr.press/v119/yoon20 c.html. URL: http://proceedings.m lr.press/v119/yoon20 c.html 0.38
[48] Qian Zhang, Nicola Perra, Daniela Perrotta, Michele Tizzoni, Daniela Paolotti, and Alessandro Vespignani. [48]Qian Zhang、Nicola Perra、Daniela Perrotta、Michele Tizzoni、Daniela Paolotti、Alessandro Vespignani。 0.64
“Forecasting seasonal influenza fusing digital indicators and a mechanistic disease model”. デジタル指標と機械病モデルを用いた季節性インフルエンザの予防 0.63
In: Proceedings of the 26th International Conference on World Wide Web. 第26回World Wide Web国際会議に参加。 0.60
International World Wide Web Conferences Steering Committee. International World Wide Web Conferences Steering Committee(英語) 0.84
2017, pp. 311–319. 2017年、p。 311–319. 0.75
Indre Žliobaite. “Change with delayed labeling: When is it detectable?” In: 2010 IEEE International Conference on Data Mining Workshops. ジリオベイト出身。 2010年ieee international conference on data mining workshopsにて"change with delay labeling: when is it detectable? 0.40
IEEE. 2010, pp. IEEE。 2010年、p。 0.83
843–850. [49] 843–850. [49] 0.78
12 12 0.85
英語(論文から抽出)日本語訳スコア
Appendix for Back2Future: Leveraging Backfill Dynamics for Improving Real-time Predictions in Future Code for B2F and CoVDS dataset is publicly available 3. Back2FutureのAppendix:B2FとCoVDSデータセットのリアルタイム予測を改善するためにBackfill Dynamicsを活用する。 0.75
Please refer to the README in code repository for more details. 詳細は、コードリポジトリのREADMEを参照してください。 0.72
A Additional Related work Epidemic forecasting. 追加の関連作品 疫学予測。 0.61
Broadly two classes of approaches have been devised: traditional mechanistic epidemiological models [40, 48], and the fairly newer statistical approaches [5, 1, 31], which have become among the top performing ones for multiple forecasting tasks [37]. 従来の力学疫学モデル [40, 48] と、より新しい統計学的アプローチ [5, 1, 31] は、複数の予測タスク [37] において最もパフォーマンスの高いものとなっている。
訳抜け防止モード: 従来型メカニカル疫学モデル [40, 48] の2つのアプローチが広く考案された。 そして、かなり新しい統計学的アプローチ[5, 1, 31]。 それらは複数の予測タスク[37]でトップパフォーマンスの1つになりました。
0.81
Statistical models have been helpful in using digital indicators such as search queries [19, 45] and social media [16, 26], that can give more lead time than traditional surveillance methods. 統計モデルは,検索クエリ[19,45]やソーシャルメディア[16,26]といった,従来の監視手法よりもリードタイムの高いデジタル指標を使用する上で有用である。 0.85
Recently, deep learning models have seen much work. 近年,ディープラーニングモデルが注目されている。 0.58
They can use heterogeneous and multimodal data and extract richer representations, including for modeling spatio-temporal dynamics [1, 17] and transfer learning [33, 38]. ヘテロジニアスおよびマルチモーダルデータを使用して、時空間ダイナミクス[1, 17]と転送学習[33, 38]のモデリングを含む、よりリッチな表現を抽出することができる。 0.73
Our work can be thought of refining any model (mechanistic/statist ical) in this space. 私たちの仕事は、この空間の任意のモデル(機械的・統計的)を精錬することを考えることができる。 0.51
Revisions and backfill. リビジョンとバックフィル。 0.72
The topic of revisions has not received as much attention, with few exceptions. 改訂の話題は、ほとんど例外を除いてあまり注目されていない。 0.66
In epidemic forecasting, a few papers have either (a) mentioned about the ‘backfill problem’ and its effects on performance [9, 39, 2, 36] and evaluation [37]; or (b) proposed to address the problem via simple models like linear regression [8] or ’backcasting’ [5] the observed targets. 流行予測では、(a)「バックフィル問題」とその性能 [9, 39, 2, 36] および評価 [37] への影響について言及した論文や、(b) 線形回帰 [8] や「バックキャスト [5] のような単純なモデルを用いてこの問題に対処することを提案した論文がある。 0.80
However they focus only on revisions in the target, and study only in context of influenza forecasting, which is substantially less noisy and more regular than forecasting for the novel COVID-19 pandemic. しかし、目標の改訂のみに焦点を当て、新型コロナウイルスのパンデミックの予測よりもかなりノイズが少なく、規則的に発生するインフルエンザの予測の文脈でのみ研究を行う。 0.73
[37] proposed a framework to study how backfill affects the evaluation of multiple models, but it is limited to label backfill and flu forecasting, which is less chaotic than the COVID scenario that we study. [37]は、バックフィルが複数のモデルの評価にどのように影響するかを研究するための枠組みを提案したが、このフレームワークはラベル付きバックフィルとインフルエンザの予測に限定されている。 0.63
[12] surveys several domain-specific [6] or essentially linear techniques in economics for data revision/correction behavior of the source of several macroeconomic indicators [15]. 12] マクロ経済指標 [15] の原点のデータの修正・訂正行動に関する経済学におけるいくつかのドメイン固有な [6] または本質的に線形な手法を調査した。 0.60
In contrast, we study the more challenging problem of multi-variate backfill for both features and targets and show how to leverage our insights for more general neural framework to improve both model predictions and evaluation. 対照的に、機能とターゲットの両方に対する多変量バックフィルのより困難な問題を研究し、モデル予測と評価の両方を改善するために、より一般的なニューラルフレームワークの洞察をどのように活用するかを示す。 0.64
B Nature of backfill dynamics (More details) b バックフィルダイナミクスの性質(詳細) 0.60
B.1 Considering Delay in reporting b.報告の遅れを考慮した1 0.56
Let current week be t. Due to delay in reporting, the first observed value for some signals could be delayed by 1 to 3 weeks. 報告の遅れにより、いくつかの信号の最初の観測値が1週間から3週間遅れる可能性がある。 0.64
For instance, BSEQ(i, t) may not have the first δi values due to δi weeks delay in reporting. 例えば、BSEQ(i, t)は報告のδi週間遅れのため、最初のδi値を持たないかもしれない。 0.79
In such cases, for analysis of BSEQ in Section 2, we take dt+δi as the first value of BSEQ(i, t) = (cid:104)dt+δi i,t(cid:105). そのような場合、セクション2における BSEQ の解析において、dt+δi を BSEQ(i, t) = (cid:104)dt+δi i,t(cid:105) の第一値とする。 0.73
Subsequently, BERR(r, i, t) is only defined for r > δi i,t i,t −d |d(t+r) as BERR(r, i, t) = |d i,t| tf その後、BERR(r, i, t) は r > δi i,t i,t −d |d(t+r) に対してのみ BERR(r, i, t) = |d i,t| tf として定義される。 0.84
, dt+δi+1 i,t| dt+δi+1 i,t| 0.62
,··· , dtf ・··· , dtf 0.75
i,t i,t 私は... 私は... 0.39
tf . Real-time forecasting As mentioned in main paper, we handle delay in reporting real time data by approximating from previous week. tf . リアルタイム予測 本文で述べたように、前週の近似によってリアルタイムデータの報告の遅れを処理する。 0.81
During real-time forecasting, we cannot wait for δi weeks to get the first value of a signal. リアルタイムの予測では、δi 週間待って信号の最初の値を得ることはできない。 0.76
Therefore, we replace d(t) i,t with the most revised value of last week for which the signal is available. したがって、d(t) i,tを、信号が利用可能な先週の最も改訂された値に置き換える。 0.66
Let t(cid:48) < t is the last week before t for which we have d(t) i,t(cid:48). t(cid:48) < t を d(t) i,t(cid:48) を持つ t の前の最後の週とする。 0.88
Then, we use d(t) i,t . 次に、d(t) i,t を使用する。 0.69
Note that such cases of missing initial value during real-time forecasting is very uncommon. リアルタイム予測における初期値の欠落は、非常に稀である。 0.64
i,t(cid:48) in place of unavailable d(t) i,t(cid:48) 使用不能d(t) の代わりに 0.76
B.2 Description of canonical backfill behaviours b.2 正準バックフィル挙動の記述 0.61
We saw in Observation 3 that clustering BSEQs resulted in 5 canonical behaviours. 観測3では,BSEQのクラスタリングによって5つの標準的挙動が得られた。 0.61
The behaviors of these clusters as shown in Figure 2 can be described as: 図2に示すように、これらのクラスタの挙動は次のように説明できる。 0.70
3Link to code and dataset: https://github.com/A dityaLab/Back2Future 3Link to code and dataset: https://github.com/A dityaLab/Back2Future 0.56
13 13 0.85
英語(論文から抽出)日本語訳スコア
1. Early Decrease: BSEQ values stabilizes quickly (within a week) to a lower stable value. 1. 早期減少:bseq値は(1週間で)急速に安定し、より低い安定値となる。 0.80
2. Early Increase: BSEQ values increase in 2 to 5 weeks and stabilize. 2. 早期増加: BSEQ値は2~5週間で増加し、安定する。 0.83
3. Steady/Spike: BSEQ values either remain constant (no significant revision) or due to reporting errors there may be anomalous values in between. 3. Steady/Spike: BSEQ値は一定(大幅なリビジョンはない)か、あるいはエラー報告のため、中間に異常な値が存在する可能性がある。 0.74
(E.g., for a particular week in middle of BSEQ the signals are revised to 0 due to reporting error). (例えば、BSEQの途中の特定の週は、報告エラーにより信号が0に更新される)。 0.64
4. Late Increase: BSEQ values increase and stabilize very late during revision. 4. 後期増加: BSEQ値はリビジョン期間中に増加し、安定する。 0.83
5. Mid Decrease: BSEQ values change and stabilize after 8 to 10 weeks of revision. 5. 中減期:bseq値は8週間から10週間の修正後に変化し安定する。 0.75
B.3 Correlation between BERR and model performance B.3 BERRとモデル性能の相関 0.87
In Observation 4, we found that models differ in how their performance is impacted by BERR on the label and found that relationship between BERR and difference in MAE (REVDIFFMAE) was varied across models with some models (YYG) even showing positive correlation between BERR and REVDIFFMAE. その結果,BERRとREVDIFFMAEの正の相関を示すモデル(YYG)において,BERRとREVDIFFMAEの差はモデルによって異なることがわかった。
訳抜け防止モード: 観察4では、 モデルは、そのパフォーマンスがレーベルのBERRによってどのように影響されるかが異なる その結果, BERRとREVDIFFMAEの相関関係は, いくつかのモデル (YYG ) のモデルによって異なり, BERRとREVDIFFMAEの正の相関が認められた。
0.86
To further study this relationship between BERR and reduction in MAE on using stable labels for evaluation over real-time labels by computing the Pearson correlation coefficient (PCC) between BERR and REVDIFFMAE for in Table 3. 表3において、BERRとREVDIFFMAEのピアソン相関係数(PCC)を計算し、BERRとMAEの低減の関係について、リアルタイムラベルよりも安定したラベルを用いて検討する。 0.80
As seen from Figure 3, we observe that for YYG, PCC is positive, indicating that YYG’s scores are actually due to larger BERR on labels. 図3に示すように、YYGではPCCは肯定的であり、YYGのスコアはレーベルのBERRが大きいためであることを示している。 0.69
We also see significant differences in PCC for YYG and CMU-TS in over other models. また,他のモデルと比較して,YYGとCMU-TSのPCCに有意な差が認められた。 0.58
C Hyperparameters Cハイパーパラメータ 0.76
In this section we describe in detail hyperparameters related to data preprocessing and B2F architecture. 本稿では,データ前処理とB2Fアーキテクチャに関連するハイパーパラメータについて詳述する。 0.70
C.1 Data Pre-processing C.1 データ前処理 0.63
Table 3: Pearson Correlation Coefficient (PCC) between BERR and REVDIFFMAE using stable labels over real-time labels PCC Model -0.327 ENSEMBLE -0.322 GT-DC YYG 0.110 UMASS-MB -0.291 CMU-TS -0.468 PCC Model -0.327 ENSEMBLE -0.322 GT-DC YYG 0.110 UMASS-MB -0.291 CMU-TS -0.468 0.64
Missing real-time data Sometimes there is a delay in receiving signals for current week. リアルタイムデータの欠落 時々、現在の週に信号を受け取るのに遅延があります。 0.68
In this case we use values from most revised version of last observation week for real-time forecasting. このケースでは、リアルタイム予測のために、前週の最も改訂されたバージョンの値を使用します。 0.52
from week t till tf , there are weeks t(cid:48) in Missing revisions Once we start observing a signal d(t) t between where the revised value of this signals is not available or value received is zero. 週 t から tf まで、信号 d(t) t を観測し始めると、この信号の修正値が得られない、または受信される値が 0 となる信号 t(cid:48) が欠落する。
訳抜け防止モード: 週 t から tf まで 数週間 t (cid:48 ) 私たちは観察を始め 位置の間の信号d(t ) t この信号の修正された値が手に入らないか、受信された値 ゼロです
0.75
This gives rise to Spike behaviour (Figure 2). これはスパイク行動を引き起こす(図2)。 0.58
Before training we replace this value with previous value of BSEQ. トレーニングの前に、この値をBSEQの以前の値に置き換えます。 0.70
Termination of revisions We observed that for some digital signals, revisions stops a few months in future. 改訂の終了 私たちは、いくつかのデジタル信号では、リビジョンは今後数ヶ月で停止するのを観察した。 0.59
This could be due to termination of data correction for that signal for older observation weeks. これは、古い観測期間のデータ修正が終了することによる可能性がある。 0.66
In such cases, we assume that signals are stabilized and use the last available revised values to fill the following values of BSEQ. このような場合、信号は安定していると仮定し、最後の利用可能な修正値を用いて以下のBSEQの値を満たす。 0.73
Scaling signal values Since each signal, that is received have very different range of values, we rescale each individual signals with mean 0. and standard deviation 1.0. 信号値のスケーリングは,受信した信号ごとに異なる範囲の値を持つため,平均0と標準偏差1.0で各信号を再スケールする。 0.88
Note that since B2F is trained separately for each each week, we normalize the data for each week before training. b2fは毎週個別にトレーニングされているので、トレーニング前の週ごとにデータを正規化します。 0.73
C.2 Architecture BSEQENC The dimension size of all latent encodings h(t(cid:48) a single layer of graph convolutional neural network with weight matrix of size R50×50. C.2 Architecture BSEQENC すべての潜在エンコーディングh(t(cid:48)の次元サイズは、R50×50の重み行列を持つグラフ畳み込みニューラルネットワークの単一層である。 0.80
i,t(cid:48) and v(t(cid:48) r) i,t(cid:48) i,t(cid:48) と v(cid:48) r) i,t(cid:48) 0.98
r) is set to 50. r) 50に設定されています 0.72
Each GConv is MODELPREDENC For GRUM E We use a GRU of single hidden layer with output size 50. 各GConvは MODELPREDENC GRUM Eでは、出力サイズ50の単一の隠れレイヤのGRUを使用します。 0.76
REFINER the feed-forward network F F NRF is a 2 layer network with hidden layers of size 60 and 30 followed by final layer outputting 1 dimensional scalar. REFINER フィードフォワードネットワーク FF NRF は、サイズ60,30の隠蔽層を有する2層ネットワークであり、次いで1次元スカラーを出力する最終層である。 0.83
Training hyperparameters We used learning rate of 10−3 for pre-training and 5 × 10−4 for finetuning. トレーニングハイパーパラメータでは,事前トレーニングに10~3,微調整に5×10~4の学習率を用いた。
訳抜け防止モード: トレーニングハイパーパラメータ プレトレーニングに10~3の学習率を用いた 5×10−4であった。
0.66
Pretraining task usually around takes 2000 epoch to train with first 1000 epochs using teacher プレトレーニングタスクは通常、教師を使った最初の1000エポックのトレーニングに2000エポックを要します。
訳抜け防止モード: 通常2000年前後の事前訓練作業は 教師を使って最初の1000エポックを
0.71
14 14 0.85
英語(論文から抽出)日本語訳スコア
forcing and each of rest of the epoch using teacher forcing with probability 0.5. 教師の強制力は確率0.5。 0.36
Fine-tuning takes between 500 to 1000 epoch depending on the model, region and week of forecast. 微調整は、予測のモデル、地域、週によって500から1000エポックかかる。 0.60
Overall, we found that most hyperparameters are not sensitive. 全体として、ほとんどのハイパーパラメータは敏感ではないことがわかった。 0.50
The most sensitive ones mentioned in main paper are c ∈ {2, 3, 4, 5} that controls sparsity of graph Gt and l = 5 that controls how many steps we auto-regress using BSEQENC to derive latent encodings for BSEQ during inference. 主要な論文で言及されている最も敏感なものは c ∈ {2, 3, 4, 5} で、グラフ Gt と l = 5 の間隔を制御し、推論中に BSEQENC を用いて自動回帰するステップ数を制御する。 0.74
D Results for MAE and MAPE MAE と MAPE のD 結果 0.73
We show the average % improvements of all baselines and B2F in Table 4 including for k = 1 week ahead forecasts (We show for k = 2, 3, 4 in main paper Table 2 as well). 表4では、k = 1 週予測を含むすべてのベースラインと b2f の平均 % 改善を示す(本表2 においても、k = 2, 3, 4 も示している)。 0.71
B2F clearly outperforms all baselines and provides similar improvements for COVID-19 Forecast Hub models for k = 1 week ahead forecasts as described in Section 4 for other values of k. B2Fは明らかにすべてのベースラインを上回り、kの他の値に関して第4節に記載されているように、k = 1週間の予測でCOVID-19 Forecast Hubモデルに類似した改善を提供する。 0.56
Table 4: % improvement in MAE and MAPE scores averaged over all regions from May 2020 to Dec 2020 表4:2020年5月から2020年12月までの全地域におけるMAEとMAPEの得点改善率 0.68
Cand. Model Refining Model MAE MAPE MAE MAPE MAE MAPE MAE MAPE Cand モデル精錬モデル mae mape mae mape mae mape mae mape 0.48
Ensemble GT-DC アンサンブル GT-DC 0.45
YYG Umass-MB YYG Umass-MB 0.72
CMU-TS FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F FFNREG PREDRNN BSEQREG2 BSEQREG B2F CMU-TS FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG PreDRNN BSEQREG2 BSEQREG B2F FFNREG BSEQREG2 BSEQREG B2F 0.77
K=1 -0.21 -1.67 0.15 2.1 6.22 -1.92 -3.9 0.51 2.92 10.44 -3.45 -1.47 -1.39 -1.98 10.64 -2.37 -3.52 -1.01 0.92 4.44 -2.22 -6.59 0.46 1.76 7.54 K=1 -0.21 -1.67 0.15 2.1 6.22 -1.92 -3.9 0.51 2.92 10.44 -3.45 -1.47 -1.39 -1.98 10.64 -2.37 -3.52 -1.01 0.92 4.44 -2.22 -6.59 0.46 1.76 7.54 0.47
-0.45 -0.61 0.19 0.29 6.13 -1.45 -4.44 0.46 2.5 12.37 -1.53 -0.92 -0.59 -1.92 7.74 -2.03 -4.61 -0.92 0.78 5.31 -4.17 -4.11 0.71 2.34 8.22 -0.45 -0.61 0.19 0.29 6.13 -1.45 -4.44 0.46 2.5 12.37 -1.53 -0.92 -0.59 -1.92 7.74 -2.03 -4.61 -0.92 0.78 5.31 -4.17 -4.11 0.71 2.34 8.22 0.34
k=2 -0.35 -2.23 -1.45 1.42 5.18 -2.42 -3.02 2.24 2.13 12.68 -2.08 -3.84 -1.25 -1.78 8.84 -3.25 -8.2 -2.16 1.58 5.21 -5.24 -8.17 -0.67 1.46 8.75 k=2 -0.35 -2.23 -1.45 1.42 5.18 -2.42 -3.02 2.24 2.13 12.68 -2.08 -3.84 -1.25 -1.78 8.84 -3.25 -8.2 -2.16 1.58 5.21 -5.24 -8.17 -0.67 1.46 8.75 0.46
-0.12 -1.57 -2.73 0.37 5.47 -1.51 -3.41 3.51 3.84 12.59 -1.34 -6.99 -0.7 -2.26 5.98 -5.74 -7.54 -1.88 0.86 4.92 -4.93 -8.21 -0.57 1.05 10.48 -0.12 -1.57 -2.73 0.37 5.47 -1.51 -3.41 3.51 3.84 12.59 -1.34 -6.99 -0.7 -2.26 5.98 -5.74 -7.54 -1.88 0.86 4.92 -4.93 -8.21 -0.57 1.05 10.48 0.34
k=3 0.48 -1.51 -1.74 0.37 3.64 -2.04 -2.62 2.31 3.6 11.42 -4.62 -5.57 -2.57 -1.99 7.04 -2.16 -5.19 -2.13 -1.26 3.25 -2.87 -3.32 -0.73 2.74 5.84 k=3 0.48 -1.51 -1.74 0.37 3.64 -2.04 -2.62 2.31 3.6 11.42 -4.62 -5.57 -2.57 -1.99 7.04 -2.16 -5.19 -2.13 -1.26 3.25 -2.87 -3.32 -0.73 2.74 5.84 0.46
-0.29 -3.78 -3.21 0.22 3.9 -6.07 -3.95 2.42 3.55 10.67 -3.89 -4.16 -3.72 -1.53 7.64 -3.17 -7.82 -0.67 0.45 4.74 -1.95 -6.3 -0.19 2.47 7.62 -0.29 -3.78 -3.21 0.22 3.9 -6.07 -3.95 2.42 3.55 10.67 -3.89 -4.16 -3.72 -1.53 7.64 -3.17 -7.82 -0.67 0.45 4.74 -1.95 -6.3 -0.19 2.47 7.62 0.34
k=4 0.81 -1.13 -5.2 0.72 3.61 -1.86 -2.81 1.6 1.42 9.64 -1.37 -9.29 -6.65 -0.61 6.8 -1.44 -5.99 -2.29 0.06 3.94 -3.19 -3.75 -0.38 2.11 6.93 k=4 0.81 -1.13 -5.2 0.72 3.61 -1.86 -2.81 1.6 1.42 9.64 -1.37 -9.29 -6.65 -0.61 6.8 -1.44 -5.99 -2.29 0.06 3.94 -3.19 -3.75 -0.38 2.11 6.93 0.46
0.36 -2.36 -4.78 0.28 6.3 -0.49 -3.26 0.57 2.27 8.97 -3.06 -5.81 -5.45 -0.43 5.27 -4.84 -7.43 -2.31 0.03 3.49 -6.7 -9.1 -0.12 2.84 6.28 0.36 -2.36 -4.78 0.28 6.3 -0.49 -3.26 0.57 2.27 8.97 -3.06 -5.81 -5.45 -0.43 5.27 -4.84 -7.43 -2.31 0.03 3.49 -6.7 -9.1 -0.12 2.84 6.28 0.34
15 15 0.85
                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。