論文の概要: MSP-LLM: A Unified Large Language Model Framework for Complete Material Synthesis Planning
- arxiv url: http://arxiv.org/abs/2602.07543v1
- Date: Sat, 07 Feb 2026 13:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.68151
- Title: MSP-LLM: A Unified Large Language Model Framework for Complete Material Synthesis Planning
- Title(参考訳): MSP-LLM: 完全な材料合成計画のための統一された大規模言語モデルフレームワーク
- Authors: Heewoong Noh, Gyoung S. Na, Namkyeong Lee, Chanyoung Park,
- Abstract要約: 2つのサブプロブレムからなる構造化プロセスとしてMSPを定式化する統合フレームワークであるMSP-LLMを提案する。
本手法では,両タスクを化学的に一貫した決定連鎖に整理する中間決定変数として,離散材料クラスを導入する。
MSP-LLM は、PP と SOP の両方の既存の手法と完全な MSP タスクを一貫して上回っている。
- 参考スコア(独自算出の注目度): 24.059111572657596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Material synthesis planning (MSP) remains a fundamental and underexplored bottleneck in AI-driven materials discovery, as it requires not only identifying suitable precursor materials but also designing coherent sequences of synthesis operations to realize a target material. Although several AI-based approaches have been proposed to address isolated subtasks of MSP, a unified methodology for solving the entire MSP task has yet to be established. We propose MSP-LLM, a unified LLM-based framework that formulates MSP as a structured process composed of two constituent subproblems: precursor prediction (PP) and synthesis operation prediction (SOP). Our approach introduces a discrete material class as an intermediate decision variable that organizes both tasks into a chemically consistent decision chain. For OP, we further incorporate hierarchical precursor types as synthesis-relevant inductive biases and employ an explicit conditioning strategy that preserves precursor-related information in the autoregressive decoding state. Extensive experiments show that MSP-LLM consistently outperforms existing methods on both PP and SOP, as well as on the complete MSP task, demonstrating an effective and scalable framework for MSP that can accelerate real-world materials discovery.
- Abstract(参考訳): 材料合成計画(MSP)は、適切な前駆物質を識別するだけでなく、ターゲット材料を実現するための一貫性のある合成操作を設計する必要があるため、AI駆動の材料発見において基礎的かつ過小評価されたボトルネックであり続けている。
MSPの独立したサブタスクに対処するために、AIベースのアプローチがいくつか提案されているが、MSPのタスク全体を解決するための統一された方法論はまだ確立されていない。
MSP-LLMは,前駆体予測 (PP) と合成操作予測 (SOP) の2つのサブプロブレムから構成される構造化プロセスとしてMSPを定式化する統一LLMベースのフレームワークである。
本手法では,両タスクを化学的に一貫した決定連鎖に整理する中間決定変数として,離散材料クラスを導入する。
OPでは、階層的前駆体を合成関連帰納バイアスとして取り入れ、自己回帰的復号状態における前駆体関連情報を保存する明示的条件付け戦略を採用する。
大規模な実験により、MPP-LLMはPPとSOPの両方の既存の手法と完全なMSPタスクを一貫して上回り、実世界の物質発見を加速できるMSPのための効果的でスケーラブルなフレームワークを実証した。
関連論文リスト
- PaSE: Prototype-aligned Calibration and Shapley-based Equilibrium for Multimodal Sentiment Analysis [31.00188332046888]
マルチモーダル・センティメント・アナリティクスは、テキスト、音響、視覚信号を統合することで人間の感情を理解しようとする。
融合は相互の相補性を活用するように設計されているが、現実のシナリオはしばしばモダリティの競合を示し、最適以下の性能をもたらす。
提案するPaSEは,モダリティ競争を緩和しつつ協調性を向上する,新しいプロトタイプ・アライメントおよびシェープ最適化平衡フレームワークである。
論文 参考訳(メタデータ) (2025-11-16T05:31:11Z) - Self-Supervised Representation Learning as Mutual Information Maximization [12.795838767116384]
自己指導型表現学習(SSRL)は、顕著な経験的成功を示している。
最近の研究は、情報理論の目的を検証してSSRL法を統一しようと試みている。
予測器ネットワーク、停止段階演算、統計正則化器といったアーキテクチャ要素は、しばしば経験的に動機づけられた付加物と見なされる。
論文 参考訳(メタデータ) (2025-10-01T18:18:14Z) - ChemActor: Enhancing Automated Extraction of Chemical Synthesis Actions with LLM-Generated Data [53.78763789036172]
ケミカルエグゼキュータとして完全微調整された大規模言語モデル(LLM)であるChemActorを紹介し,非構造化実験手順と構造化動作シーケンスを変換する。
このフレームワークは、分散分散に基づくデータ選択モジュールと汎用LLMを統合し、単一の分子入力からマシン実行可能なアクションを生成する。
反応記述(R2D)と記述記述処理(D2A)のタスクの実験により、ChemActorは最先端のパフォーマンスを達成し、ベースラインモデルよりも10%高い性能を示した。
論文 参考訳(メタデータ) (2025-06-30T05:11:19Z) - Efficient Strategy Synthesis for MDPs via Hierarchical Block Decomposition [47.123254940289726]
ソフトウェア製品ラインとロボティクスはマルコフ決定プロセス(MDP)を利用して不確実性を捉え、シーケンシャルな意思決定問題を解析する。
従来の政策合成法の有用性にもかかわらず、それらは大きな状態空間にスケールできない。
提案手法は, MDPを動的に精製し, 最も脆弱な MDP 領域を反復的に選択することにより, 大規模な MDP における政策合成を高速化する。
論文 参考訳(メタデータ) (2025-06-21T19:03:03Z) - CSE-SFP: Enabling Unsupervised Sentence Representation Learning via a Single Forward Pass [3.0566617373924325]
プレトレーニング言語モデル(PLM)の最近の進歩は、この分野において顕著な進歩をもたらした。
CSE-SFPは,生成モデルの構造的特徴を利用する革新的な手法である。
CSE-SFPは高品質な埋め込みを実現するだけでなく、トレーニング時間とメモリ消費を著しく削減する。
論文 参考訳(メタデータ) (2025-05-01T08:27:14Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。