論文の概要: NSF RESUME HPC Workshop: High-Performance Computing and Large-Scale Data
Management in Service of Epidemiological Modeling
- arxiv url: http://arxiv.org/abs/2308.04602v1
- Date: Tue, 8 Aug 2023 22:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:51:43.973563
- Title: NSF RESUME HPC Workshop: High-Performance Computing and Large-Scale Data
Management in Service of Epidemiological Modeling
- Title(参考訳): NSF RESUME HPC Workshop: 疫学モデリングにおける高性能コンピューティングと大規模データ管理
- Authors: Abby Stevens, Jonathan Ozik, Kyle Chard, Jaline Gerardin, Justin M.
Wozniak
- Abstract要約: RESUMEプロジェクトは2023年5月1日、2日にシカゴ大学で「疫学モデリングにおける高性能コンピューティングと大規模データ管理」というワークショップを成功させた。
本報告では,ワークショップから得られた重要な発見と教訓について報告する。
- 参考スコア(独自算出の注目度): 1.1088050927798838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The NSF-funded Robust Epidemic Surveillance and Modeling (RESUME) project
successfully convened a workshop entitled "High-performance computing and
large-scale data management in service of epidemiological modeling" at the
University of Chicago on May 1-2, 2023. This was part of a series of workshops
designed to foster sustainable and interdisciplinary co-design for predictive
intelligence and pandemic prevention. The event brought together 31 experts in
epidemiological modeling, high-performance computing (HPC), HPC workflows, and
large-scale data management to develop a shared vision for capabilities needed
for computational epidemiology to better support pandemic prevention. Through
the workshop, participants identified key areas in which HPC capabilities could
be used to improve epidemiological modeling, particularly in supporting public
health decision-making, with an emphasis on HPC workflows, data integration,
and HPC access. The workshop explored nascent HPC workflow and large-scale data
management approaches currently in use for epidemiological modeling and sought
to draw from approaches used in other domains to determine which practices
could be best adapted for use in epidemiological modeling. This report
documents the key findings and takeaways from the workshop.
- Abstract(参考訳): NSFが出資したRobust Epidemic Surveillance and Modeling (RESUME)プロジェクトは、2023年5月1日から2日にかけてシカゴ大学で「疫学モデリングのための高性能コンピューティングと大規模データ管理」というワークショップを開催した。
これは、予測知性とパンデミック予防のための持続可能な学際的共同設計を促進するために設計された一連のワークショップの一部である。
このイベントでは、疫学モデリング、ハイパフォーマンスコンピューティング(hpc)、hpcワークフロー、大規模データ管理の専門家31人が集結し、パンデミック予防のために計算疫学に必要な能力の共有ビジョンを開発する。
ワークショップを通じて、参加者は、HPCのワークフロー、データ統合、およびHPCアクセスに重点を置いて、特に公衆衛生上の意思決定を支援するために、HPC能力が疫学的モデリングを改善するのに使用できる重要な領域を特定した。
ワークショップでは、新しいHPCワークフローと、現在疫学モデリングに使われている大規模データ管理アプローチを調査し、疫学モデリングに最も適したプラクティスを決定するために、他のドメインで使われているアプローチから引き出そうとした。
本報告では,ワークショップの成果と成果について報告する。
関連論文リスト
- Addressing Data Heterogeneity in Federated Learning of Cox Proportional Hazards Models [8.798959872821962]
本稿では,フェデレーションサバイバル分析の分野,特にCox Proportional Hazards(CoxPH)モデルについて概説する。
本稿では,合成データセットと実世界のアプリケーション間のモデル精度を向上させるために,特徴ベースのクラスタリングを用いたFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-20T18:34:20Z) - EHRMamba: Towards Generalizable and Scalable Foundation Models for Electronic Health Records [0.0]
我々は,Mambaアーキテクチャ上に構築された堅牢な基盤モデルであるEHRMambaを紹介する。
EHRMambaは、線形計算コストのために、以前のモデルよりも最大4倍長いシーケンスを処理できる。
EHRデータに対するMTF(Multitask Prompted Finetuning)の新たなアプローチを導入することで,EHRMambaは単一ファインタニングフェーズで複数の臨床タスクを同時に学習することが可能になる。
論文 参考訳(メタデータ) (2024-05-23T13:43:29Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Automated Multi-Task Learning for Joint Disease Prediction on Electronic Health Records [4.159498069487535]
本稿では,タスクグループとアーキテクチャの最適構成を同時に検索できるAutoDPという自動手法を提案する。
ハンドクラフトと自動化された最先端の手法の両方に対して大幅な性能向上を実現し、同時に検索コストを同時に維持する。
論文 参考訳(メタデータ) (2024-03-06T22:32:48Z) - Recent Advances in Predictive Modeling with Electronic Health Records [71.19967863320647]
EHRデータを予測モデリングに利用すると、その特徴からいくつかの課題が生じる。
深層学習は、医療を含む様々な応用においてその優位性を示している。
論文 参考訳(メタデータ) (2024-02-02T00:31:01Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Data-Centric Epidemic Forecasting: A Survey [56.99209141838794]
この調査は、様々なデータ駆動の方法論および実践的進歩を掘り下げるものである。
疫学的なデータセットと,流行予測に関連する新しいデータストリームを列挙する。
また,これらの予測システムの現実的な展開において生じる経験や課題についても論じる。
論文 参考訳(メタデータ) (2022-07-19T16:15:11Z) - STOPPAGE: Spatio-temporal Data Driven Cloud-Fog-Edge Computing Framework
for Pandemic Monitoring and Management [28.205715426050105]
行政政策の改善とパンデミック対策のための準備を強化するための分析枠組みを開発することは絶対的に必要である。
本稿では,STOPと呼ばれる時空間知識マイニングフレームワークを提案し,時間スケールの異なる大規模地域における人間の移動性や文脈情報の影響をモデル化する。
i)fog/edgeベースのアーキテクチャを使用したs-temporal data and computing infrastructure、(ii)s-temporal data analyticsモジュールで、異種データソースから知識を効率的に抽出する。
論文 参考訳(メタデータ) (2021-04-04T12:29:31Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Simulation-Based Inference for Global Health Decisions [9.850436827722419]
機械学習における最近のブレークスルー、特にシミュレーションベースの推論について論じる。
研究をさらに刺激するために、新型コロナウイルスとマラリア疫学モデルを確率的プログラムに変えるソフトウェアインターフェースを開発している。
論文 参考訳(メタデータ) (2020-05-14T15:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。