論文の概要: Hardware-accelerated Simulation-based Inference of Stochastic
Epidemiology Models for COVID-19
- arxiv url: http://arxiv.org/abs/2012.14332v1
- Date: Wed, 23 Dec 2020 03:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:02:58.488384
- Title: Hardware-accelerated Simulation-based Inference of Stochastic
Epidemiology Models for COVID-19
- Title(参考訳): ハードウェアアクセラレーションによるCOVID-19の確率疫学モデルの推定
- Authors: Sourabh Kulkarni and Mario Michael Krell and Seth Nabarro and Csaba
Andras Moritz
- Abstract要約: いくつかの疫学モデルは、パラメータを観測に合わせるために近似ベイズ計算のようなシミュレーションに基づく推論を必要とする。
本研究では,感染症の疫学モデルに対するabcの並列推論法を開発した。
統計推論フレームワークは、Intel Xeon、NVIDIA Tesla V100 GPU、Graphcore Mk1 IPUで実装および比較されている。
本稿では,3カ国にわたる疫学モデル上での推論を行い,その結果の概要を述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Epidemiology models are central in understanding and controlling large scale
pandemics. Several epidemiology models require simulation-based inference such
as Approximate Bayesian Computation (ABC) to fit their parameters to
observations. ABC inference is highly amenable to efficient hardware
acceleration. In this work, we develop parallel ABC inference of a stochastic
epidemiology model for COVID-19. The statistical inference framework is
implemented and compared on Intel Xeon CPU, NVIDIA Tesla V100 GPU and the
Graphcore Mk1 IPU, and the results are discussed in the context of their
computational architectures. Results show that GPUs are 4x and IPUs are 30x
faster than Xeon CPUs. Extensive performance analysis indicates that the
difference between IPU and GPU can be attributed to higher communication
bandwidth, closeness of memory to compute, and higher compute power in the IPU.
The proposed framework scales across 16 IPUs, with scaling overhead not
exceeding 8% for the experiments performed. We present an example of our
framework in practice, performing inference on the epidemiology model across
three countries, and giving a brief overview of the results.
- Abstract(参考訳): 疫学モデルは大規模パンデミックの理解と制御の中心である。
いくつかの疫学モデルは、そのパラメータを観測に適合させるために、近似ベイズ計算(ABC)のようなシミュレーションベースの推論を必要とする。
ABC推論は効率的なハードウェアアクセラレーションに非常に適している。
本研究では,COVID-19に対する確率的疫学モデルのABC同時推定法を開発した。
統計的推論フレームワークは、Intel Xeon CPU、NVIDIA Tesla V100 GPU、Graphcore Mk1 IPUで実装され、比較され、計算アーキテクチャの文脈で議論される。
結果,GPUは4倍,IPUはXeon CPUの30倍高速であることがわかった。
大規模性能解析により、IPUとGPUの差は、通信帯域幅の増大、メモリの計算精度の向上、IPUの計算能力の向上によるものと考えられる。
提案されたフレームワークは16 IPUにまたがってスケールし、スケーリングのオーバーヘッドは実験の8%を超えない。
本稿では,3カ国にわたる疫学モデル上での推論を行い,その結果の概要を述べる。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Accelerating TinyML Inference on Microcontrollers through Approximate Kernels [3.566060656925169]
本研究では、近似計算とソフトウェアカーネル設計を組み合わせることで、マイクロコントローラ上での近似CNNモデルの推定を高速化する。
CIFAR-10データセットでトレーニングされたSTM32-Nucleoボードと2つの人気のあるCNNによる評価は、最先端の正確な推測と比較すると、平均21%のレイテンシ削減が可能であることを示している。
論文 参考訳(メタデータ) (2024-09-25T11:10:33Z) - Insight Gained from Migrating a Machine Learning Model to Intelligence Processing Units [8.782847610934635]
インテリジェンス処理ユニット(IPU)は、機械学習(ML)アプリケーションのためのGPUに代わる実行可能なアクセラレータを提供する。
本稿では,GPU から IPU へモデルを移行するプロセスについて検討し,パイプライニングや勾配蓄積などの最適化手法について検討する。
従来のColossus IPUと比較して,Bow IPUの性能は大幅に向上した。
論文 参考訳(メタデータ) (2024-04-16T17:02:52Z) - PAVI: Plate-Amortized Variational Inference [55.975832957404556]
数百人の被験者のコホート上で何百万もの計測が行われる大集団研究において、推論は困難である。
この大きな濃度は、オフザシェルフ変分推論(VI)を計算的に非現実的である。
本研究では,大集団研究に効率よく取り組む構造VIファミリーを設計する。
論文 参考訳(メタデータ) (2023-08-30T13:22:20Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Tricking AI chips into Simulating the Human Brain: A Detailed
Performance Analysis [0.5354801701968198]
脳シミュレーションでは、複数の最先端AIチップ(Graphcore IPU、GroqChip、劣悪なCoreを持つNvidia GPU、Google TPU)を評価した。
性能解析の結果,シミュレーション問題はGPUとTPUアーキテクチャに極めてよく対応していることがわかった。
GroqChipは、小さなネットワークにおいて両方のプラットフォームより優れているが、精度の低い浮動小数点演算を実装しているため、脳シミュレーションではまだ利用できない。
論文 参考訳(メタデータ) (2023-01-31T13:51:37Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Combining Hybrid Architecture and Pseudo-label for Semi-supervised
Abdominal Organ Segmentation [8.392397691020232]
本研究では,CNNとTransformerのハイブリッドアーキテクチャ(PHTrans)を教師モデルと学生モデルの両方に適用し,正確な擬似ラベルを生成する。
FLARE2022の検証実験により,提案手法は高速かつ低リソースなモデル推論だけでなく,セグメンテーション性能にも優れることを示した。
論文 参考訳(メタデータ) (2022-07-23T13:02:43Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。