論文の概要: Machine Learning-driven Multiscale MD Workflows: The Mini-MuMMI Experience
- arxiv url: http://arxiv.org/abs/2507.07352v1
- Date: Thu, 10 Jul 2025 00:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.237846
- Title: Machine Learning-driven Multiscale MD Workflows: The Mini-MuMMI Experience
- Title(参考訳): 機械学習駆動型マルチスケールMDワークフロー:Mini-MuMMI体験
- Authors: Loïc Pottier, Konstantia Georgouli, Timothy S. Carpenter, Fikret Aydin, Jeremy O. B. Tempkin, Dwight V. Nissley, Frederick H. Streitz, Thomas R. W. Scogland, Peer-Timo Bremer, Felice C. Lightstone, Helgi I. Ingólfsson,
- Abstract要約: 我々は超並列マルチスケールマシン学習モデリング基盤(MuMMI)について論じる。
MuMMIは、ミリ秒からナノ秒までの異なる時間スケールで動作する何千もの分子動力学シミュレーションを編成する。
Mini-MuMMIは、より大型のHPCシステムを必要とするのに対して、控えめなHPCシステムやラップトップで動作するように設計されたMuMMIのキュレート版である。
- 参考スコア(独自算出の注目度): 6.460280778280392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational models have become one of the prevalent methods to model complex phenomena. To accurately model complex interactions, such as detailed biomolecular interactions, scientists often rely on multiscale models comprised of several internal models operating at difference scales, ranging from microscopic to macroscopic length and time scales. Bridging the gap between different time and length scales has historically been challenging but the advent of newer machine learning (ML) approaches has shown promise for tackling that task. Multiscale models require massive amounts of computational power and a powerful workflow management system. Orchestrating ML-driven multiscale studies on parallel systems with thousands of nodes is challenging, the workflow must schedule, allocate and control thousands of simulations operating at different scales. Here, we discuss the massively parallel Multiscale Machine-Learned Modeling Infrastructure (MuMMI), a multiscale workflow management infrastructure, that can orchestrate thousands of molecular dynamics (MD) simulations operating at different timescales, spanning from millisecond to nanosecond. More specifically, we introduce a novel version of MuMMI called "mini-MuMMI". Mini-MuMMI is a curated version of MuMMI designed to run on modest HPC systems or even laptops whereas MuMMI requires larger HPC systems. We demonstrate mini-MuMMI utility by exploring RAS-RAF membrane interactions and discuss the different challenges behind the generalization of multiscale workflows and how mini-MuMMI can be leveraged to target a broader range of applications outside of MD and RAS-RAF interactions.
- Abstract(参考訳): 計算モデルは、複雑な現象をモデル化するための一般的な方法の1つになっている。
詳細な生体分子相互作用などの複雑な相互作用を正確にモデル化するために、科学者はしばしば、顕微鏡からマクロまで、そして時間スケールまで、いくつかの内部モデルからなるマルチスケールモデルに依存している。
異なる時間と長さのスケールのギャップを埋めることは歴史的に難しいが、新しい機械学習(ML)アプローチの出現は、そのタスクに取り組むことを約束している。
マルチスケールモデルは膨大な計算能力と強力なワークフロー管理システムを必要とする。
数千のノードを持つ並列システムに関するML駆動のマルチスケール研究のオーケストレーションは困難であり、ワークフローは異なるスケールで動作する数千のシミュレーションをスケジュールし、割り当て、制御する必要がある。
本稿では,Multiscale Machine-Learned Modeling Infrastructure (MuMMI)について論じる。Multiscale Machine-Learned Modeling Infrastructure (MuMMI)は,数ミリ秒からナノ秒までの異なる時間スケールで動作する,数千の分子動力学シミュレーションをオーケストレーションするマルチスケールワークフロー管理基盤である。
より具体的には、「mini-MuMMI」と呼ばれる新しいバージョンのMuMMIを紹介する。
Mini-MuMMIは、より大型のHPCシステムを必要とするのに対して、控えめなHPCシステムやラップトップで動作するように設計されたMuMMIのキュレート版である。
我々は、RAS-RAF膜相互作用を探索し、マルチスケールワークフローの一般化の背景にある様々な課題と、MDやRAF以外の幅広いアプリケーションをターゲットにミニMuMMIをどのように活用できるかを議論する。
関連論文リスト
- HaploVL: A Single-Transformer Baseline for Multi-Modal Understanding [67.24430397016275]
そこで本稿では,マルチモーダル入力を早期に融合し,自動回帰方式で視覚的指示に応答できる新しいアーリーフュージョンLMMを提案する。
提案モデルでは,1つの変圧器を用いた他のLMMと比較して優れた性能を示し,合成LMMによる性能ギャップを著しく狭めている。
論文 参考訳(メタデータ) (2025-03-12T06:01:05Z) - MIND: Modality-Informed Knowledge Distillation Framework for Multimodal Clinical Prediction Tasks [50.98856172702256]
マルチモーダルモデル圧縮手法である MIND (Modality-Informed Knowledge Distillation) フレームワークを提案する。
MINDは、様々なサイズの事前訓練されたディープニューラルネットワークのアンサンブルから、より小さなマルチモーダルの学生に知識を伝達する。
時系列データと胸部X線画像を用いた2値および複数ラベルの臨床予測タスクにおけるMINDの評価を行った。
論文 参考訳(メタデータ) (2025-02-03T08:50:00Z) - Efficient and Effective Weight-Ensembling Mixture of Experts for Multi-Task Model Merging [111.8456671452411]
マルチタスク学習(MTL)は、共有モデルを利用して複数のタスクを遂行し、知識伝達を促進する。
マルチタスクモデル統合のためのウェイトエンセブリング・ミックス・オブ・エキスパート(WEMoE)手法を提案する。
WEMoEとE-WEMoEは, MTL性能, 一般化, 堅牢性の観点から, 最先端(SOTA)モデルマージ法より優れていることを示す。
論文 参考訳(メタデータ) (2024-10-29T07:16:31Z) - Multimodal Lego: Model Merging and Fine-Tuning Across Topologies and Modalities in Biomedicine [10.774128925670183]
マルチモーダルレゴ(MM-Lego)は、あらゆるエンコーダを最小限の微調整なしで競争力のあるマルチモーダルモデルに変換する汎用的な融合フレームワークである。
本研究では, MM-Legoをモデルマージ法として用いることで, 微調整を伴わずに, エンドツーエンド融合モデルとの競合性能を実現することができることを示す。
論文 参考訳(メタデータ) (2024-05-30T11:14:01Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Octavius: Mitigating Task Interference in MLLMs via LoRA-MoE [83.00018517368973]
LLM(Large Language Models)は、命令チューニングを通じて、ゼロショット能力をマルチモーダル学習に拡張することができる。
ネガティブな対立や干渉は パフォーマンスに悪影響を及ぼすかもしれない
我々は、よく知られたMixture-of-Experts(MoE)と代表的なPEFT技法の1つであるLoRA(LoRA-MoE)を組み合わせて、マルチモーダル学習のための新しいLLMベースのデコーダ(LoRA-MoE)を設計する。
論文 参考訳(メタデータ) (2023-11-05T15:48:29Z) - MultiModN- Multimodal, Multi-Task, Interpretable Modular Networks [31.59812777504438]
提案するMultiModNは,任意の数,組み合わせ,モダリティの列の潜在表現を融合するネットワークである。
我々は,MultiModNの逐次MM融合が並列融合のベースラインと比較して性能を損なわないことを示す。
論文 参考訳(メタデータ) (2023-09-25T13:16:57Z) - XRBench: An Extended Reality (XR) Machine Learning Benchmark Suite for
the Metaverse [18.12263246913058]
メタバースユースケースをサポートするために拡張現実(XR)のようなアプリケーション分野では、リアルタイムマルチタスクマルチモデル(MTMM)ワークロードが出現している。
これらのワークロードは、ユーザインタラクションと計算に複雑な機械学習(ML)アクティビティを組み合わせる。
これらのワークロードには、固有の困難と制約がある。
論文 参考訳(メタデータ) (2022-11-16T05:08:42Z) - MLMOD: Machine Learning Methods for Data-Driven Modeling in LAMMPS [0.0]
マイクロスケール力学と分子動力学を特徴付けるためのプロトタイプC++/Pythonパッケージを提案する。
このパッケージは、現在、メソモッドおよび分子動力学シミュレーションパッケージLAMMPSとPyTorchと統合されている。
論文 参考訳(メタデータ) (2021-07-29T22:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。