論文の概要: PEMS: Pre-trained Epidemic Time-series Models
- arxiv url: http://arxiv.org/abs/2311.07841v2
- Date: Sun, 19 Nov 2023 19:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 16:18:31.591596
- Title: PEMS: Pre-trained Epidemic Time-series Models
- Title(参考訳): PEMS:事前訓練されたエピデミック時系列モデル
- Authors: Harshavardhan Kamarthi, B. Aditya Prakash
- Abstract要約: 事前学習型エピデミック時系列モデル(PEMS)を紹介する。
PEMSは、自己教師付き学習(SSL)タスクのセットとして事前トレーニングを定式化することにより、さまざまな病気の時系列データセットから学習する。
その結果、PEMは、さまざまな季節パターン、地理、感染メカニズムのデータセットをまたいださまざまなダウンストリーム時系列タスクにおいて、以前の最先端の手法よりも優れており、Covid-19パンデミックは、より少ないデータセットを使用して、より効率よく事前訓練されたデータに見られない。
- 参考スコア(独自算出の注目度): 23.897701882327972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing accurate and reliable predictions about the future of an epidemic
is an important problem for enabling informed public health decisions. Recent
works have shown that leveraging data-driven solutions that utilize advances in
deep learning methods to learn from past data of an epidemic often outperform
traditional mechanistic models. However, in many cases, the past data is sparse
and may not sufficiently capture the underlying dynamics. While there exists a
large amount of data from past epidemics, leveraging prior knowledge from
time-series data of other diseases is a non-trivial challenge. Motivated by the
success of pre-trained models in language and vision tasks, we tackle the
problem of pre-training epidemic time-series models to learn from multiple
datasets from different diseases and epidemics. We introduce Pre-trained
Epidemic Time-Series Models (PEMS) that learn from diverse time-series datasets
of a variety of diseases by formulating pre-training as a set of
self-supervised learning (SSL) tasks. We tackle various important challenges
specific to pre-training for epidemic time-series such as dealing with
heterogeneous dynamics and efficiently capturing useful patterns from multiple
epidemic datasets by carefully designing the SSL tasks to learn important
priors about the epidemic dynamics that can be leveraged for fine-tuning to
multiple downstream tasks. The resultant PEM outperforms previous
state-of-the-art methods in various downstream time-series tasks across
datasets of varying seasonal patterns, geography, and mechanism of contagion
including the novel Covid-19 pandemic unseen in pre-trained data with better
efficiency using smaller fraction of datasets.
- Abstract(参考訳): 伝染病の将来に関する正確かつ確実な予測を提供することは、公衆衛生上の決定を情報化するための重要な問題である。
近年の研究では、ディープラーニング手法の進歩を活用して過去の流行データから学習するデータ駆動ソリューションが、従来の力学モデルより優れていることが示されている。
しかし、多くの場合、過去のデータは希少であり、基礎となるダイナミクスを十分に捉えていない。
過去の流行による大量のデータが存在しているが、他の病気の時系列データからの事前知識を活用することは、ささいな課題である。
言語および視覚タスクにおける事前学習モデルの成功に動機づけられた我々は、異なる疾患や流行から複数のデータセットから学習するために、事前訓練された流行時間モデルの問題に取り組む。
自己教師型学習(SSL)タスクの集合として事前学習を定式化することにより,各種疾患の時系列データセットから学習する,事前学習型エピデミック時系列モデル(PEMS)を導入する。
我々は,複数のダウンストリームタスクの微調整に活用可能な流行ダイナミクスに関する重要な事前知識を得るために,sslタスクを慎重に設計することにより,不均一なダイナミクスの処理や,複数の流行データセットから有用なパターンを効率的に取得することなど,流行時系列の事前学習に特有のさまざまな重要な課題に取り組む。
その結果、PEMは、さまざまな季節パターン、地理、感染メカニズムのデータセット間で、さまざまなダウンストリームの時系列タスクにおいて、以前の最先端の手法よりも優れています。
関連論文リスト
- Membership Inference Attacks Against Time-Series Models [0.8437187555622164]
個人情報を含む可能性のある時系列データは、特に医療分野において、深刻なプライバシー上の懸念を生じさせる。
推論攻撃(MIA)はこの種の評価の鍵となる手法であるが,この文脈では時系列予測モデルが十分に研究されていない。
時系列モデルにおける既存のMIA技術について検討し、データの季節性やトレンドに焦点をあてた新機能を紹介する。
論文 参考訳(メタデータ) (2024-07-03T07:34:49Z) - Advancing Real-time Pandemic Forecasting Using Large Language Models: A COVID-19 Case Study [39.70947911556511]
既存の予測モデルは、関連するデータと堅牢な結果翻訳の多面的な性質に苦慮している。
本研究は、テキスト推論問題として、リアルタイムに拡散する疾患の予測を再構築する新しいフレームワークであるPandemicLLMを紹介する。
このモデルは新型コロナウイルス(COVID-19)のパンデミックに適用され、テキストによる公衆衛生政策、ゲノム監視、空間および疫学的時系列データを活用するように訓練されている。
論文 参考訳(メタデータ) (2024-04-10T12:22:03Z) - Data-Centric Epidemic Forecasting: A Survey [56.99209141838794]
この調査は、様々なデータ駆動の方法論および実践的進歩を掘り下げるものである。
疫学的なデータセットと,流行予測に関連する新しいデータストリームを列挙する。
また,これらの予測システムの現実的な展開において生じる経験や課題についても論じる。
論文 参考訳(メタデータ) (2022-07-19T16:15:11Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Unsupervised Pre-Training on Patient Population Graphs for Patient-Level
Predictions [48.02011627390706]
プレトレーニングは、コンピュータビジョン(CV)、自然言語処理(NLP)、医療画像など、機械学習のさまざまな分野で成功している。
本稿では,患者結果の予測のために,教師なし事前学習を異種マルチモーダルEHRデータに適用する。
提案手法は,人口レベルでのデータモデリングに有効であることがわかった。
論文 参考訳(メタデータ) (2022-03-23T17:59:45Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Pre-training transformer-based framework on large-scale pediatric claims
data for downstream population-specific tasks [3.1580072841682734]
本研究は、小児科のクレームデータセット全体をトレーニングする一般的な事前学習モデルであるClaim Pre-Training(Claim-PT)フレームワークを提案する。
効果的な知識伝達はタスク対応微調整段階を通じて完了する。
我々は100万人以上の患者記録を持つ実世界のクレームデータセットの実験を行った。
論文 参考訳(メタデータ) (2021-06-24T15:25:41Z) - An Optimal Control Approach to Learning in SIDARTHE Epidemic model [67.22168759751541]
本研究では,疫病データから動的コンパートメンタルモデルの時間変化パラメータを学習するための一般的な手法を提案する。
我々はイタリアとフランスの疫病の進化を予報する。
論文 参考訳(メタデータ) (2020-10-28T10:58:59Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Multi-task Learning via Adaptation to Similar Tasks for Mortality
Prediction of Diverse Rare Diseases [10.020413101958944]
電子健康記録(EHR)データを用いた多様な希少疾患の死亡予測は、知的医療にとって重要な課題である。
データ不足とまれな疾患の臨床的多様性により、個々の疾患データに基づいてディープラーニングモデルを直接訓練するのは困難である。
我々はAda-Sitを用いて長期記憶ネットワーク(LSTM)に基づく長手EHRデータに基づく予測モデルを訓練する。
論文 参考訳(メタデータ) (2020-04-11T06:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。