論文の概要: MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics
- arxiv url: http://arxiv.org/abs/2601.02075v1
- Date: Mon, 05 Jan 2026 12:56:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.134629
- Title: MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics
- Title(参考訳): MDAgent2:分子動力学におけるコード生成と知識Q&Aのための大規模言語モデル
- Authors: Zhuofan Shi, Hubao A, Yufei Shao, Mengyan Dai, Yadong Yu, Pan Xiang, Dongliang Huang, Hongxu An, Chunxiao Xin, Haiyang Shen, Zhenyu Wang, Yunshan Na, Gang Huang, Xiang Jing,
- Abstract要約: MDAgent2は、分子動力学領域内で知識Q&Aとコード生成の両方を実行することができる最初のエンドツーエンドフレームワークである。
MD-Instruct と MD-Code の2つのドメイン適応型モデルを訓練するために,3段階の事前学習,教師付き微調整,強化学習を採用する。
さらに、コード生成、実行、評価、自己補正を統合するデプロイ可能なマルチエージェントシステムであるMDAgent2-RUNTIMEを構築します。
- 参考スコア(独自算出の注目度): 8.789383596830143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecular dynamics (MD) simulations are essential for understanding atomic-scale behaviors in materials science, yet writing LAMMPS scripts remains highly specialized and time-consuming tasks. Although LLMs show promise in code generation and domain-specific question answering, their performance in MD scenarios is limited by scarce domain data, the high deployment cost of state-of-the-art LLMs, and low code executability. Building upon our prior MDAgent, we present MDAgent2, the first end-to-end framework capable of performing both knowledge Q&A and code generation within the MD domain. We construct a domain-specific data-construction pipeline that yields three high-quality datasets spanning MD knowledge, question answering, and code generation. Based on these datasets, we adopt a three stage post-training strategy--continued pre-training (CPT), supervised fine-tuning (SFT), and reinforcement learning (RL)--to train two domain-adapted models, MD-Instruct and MD-Code. Furthermore, we introduce MD-GRPO, a closed-loop RL method that leverages simulation outcomes as reward signals and recycles low-reward trajectories for continual refinement. We further build MDAgent2-RUNTIME, a deployable multi-agent system that integrates code generation, execution, evaluation, and self-correction. Together with MD-EvalBench proposed in this work, the first benchmark for LAMMPS code generation and question answering, our models and system achieve performance surpassing several strong baselines.This work systematically demonstrates the adaptability and generalization capability of large language models in industrial simulation tasks, laying a methodological foundation for automatic code generation in AI for Science and industrial-scale simulations. URL: https://github.com/FredericVAN/PKU_MDAgent2
- Abstract(参考訳): 分子動力学(MD)シミュレーションは材料科学における原子スケールの挙動を理解するのに不可欠であるが、LAMMPSスクリプトを書くことは非常に専門的で時間を要する作業である。
LLMは、コード生成とドメイン固有の質問応答の約束を示すが、MDシナリオのパフォーマンスは、ドメインデータが少ないこと、最先端のLLMのデプロイメントコストが高いこと、コード実行容易性によって制限されている。
MDAgentはMDドメイン内で知識Q&Aとコード生成の両方を実行することができる最初のエンドツーエンドフレームワークです。
ドメイン固有のデータ構築パイプラインを構築し,MD知識,質問応答,コード生成にまたがる高品質な3つのデータセットを生成する。
これらのデータセットに基づいて,3段階の訓練後事前訓練(CPT),教師付き微調整(SFT),強化学習(RL)を用いて,MD-InstructとMD-Codeの2つのドメイン適応モデルを訓練する。
さらに,シミュレーション結果を報奨信号として活用し,低逆軌道をリサイクルして連続的な改善を行うクローズドループRL法MD-GRPOを紹介する。
さらに、コード生成、実行、評価、自己補正を統合するデプロイ可能なマルチエージェントシステムであるMDAgent2-RUNTIMEを構築します。
本研究は,MD-EvalBenchが提案したLAMMPSコード生成と質問応答の最初のベンチマークと合わせて,産業シミュレーションタスクにおける大規模言語モデルの適応性と一般化能力を体系的に実証し,AIによる産業規模シミュレーションにおける自動コード生成の方法論的基盤を構築した。
URL: https://github.com/FredericVAN/PKU_MDAgent2
関連論文リスト
- Agent2World: Learning to Generate Symbolic World Models via Adaptive Multi-Agent Feedback [51.22403664895878]
Agent2Worldは、強力な推論時ワールドモデル生成を実現するツール拡張マルチエージェントフレームワークである。
また、マルチエージェントフィードバックの生成を基盤にすることで、教師付き微調整のためのデータエンジンとしても機能する。
論文 参考訳(メタデータ) (2025-12-26T18:54:14Z) - ReX-MLE: The Autonomous Agent Benchmark for Medical Imaging Challenges [5.886200278450183]
ReX-MLE(ReX-MLE)は、ハイインパクトな医用イメージングコンペティションから導かれる20の課題のベンチマークである。
以前のベンチマークとは異なり、ReX-MLEは完全なエンドツーエンドを評価し、エージェントはデータ前処理、モデルトレーニング、サブミッションを独立して管理する必要がある。
ほとんどの応募は、人間専門家と比較して0パーセントのランクでランク付けされます。
論文 参考訳(メタデータ) (2025-12-19T17:44:40Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - A Survey on Code Generation with LLM-based Agents [61.474191493322415]
大規模言語モデル(LLM)を利用したコード生成エージェントは、ソフトウェア開発パラダイムに革命をもたらしている。
LLMは3つのコア特徴によって特徴づけられる。
本稿では,LLMに基づくコード生成エージェントの分野を体系的に調査する。
論文 参考訳(メタデータ) (2025-07-31T18:17:36Z) - R&D-Agent: An LLM-Agent Framework Towards Autonomous Data Science [70.1638335489284]
高レベルの機械学習エンジニアリングタスクは、労働集約的で反復的である。
機械学習プロセスを形式化する包括的で分離されたフレームワークであるR&D-Agentを紹介します。
R&D-AgentはMLEを2つのフェーズと6つのコンポーネントに定義し、MLEのエージェント設計を原則としてテスト可能なプロセスに変える。
論文 参考訳(メタデータ) (2025-05-20T06:07:00Z) - MDCure: A Scalable Pipeline for Multi-Document Instruction-Following [40.201087646516335]
マルチドキュメント処理のためのスケーラブルで効果的な命令データ生成フレームワークであるMDCureを紹介する。
MDCureは、ターゲティングプロンプトを介して、記事の集合上で高品質な合成MD命令データを生成する。
MDCureは、トレーニング済みのベースラインとベースモデルのパフォーマンスを最大75.1%向上させる。
論文 参考訳(メタデータ) (2024-10-30T21:08:07Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - Forces are not Enough: Benchmark and Critical Evaluation for Machine
Learning Force Fields with Molecular Simulations [5.138982355658199]
分子動力学(MD)シミュレーション技術は様々な自然科学応用に広く用いられている。
我々は、最先端(SOTA)ML FFモデルの集合をベンチマークし、特に、一般的にベンチマークされる力の精度が、関連するシミュレーション指標とうまく一致していないことを示す。
論文 参考訳(メタデータ) (2022-10-13T17:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。