論文の概要: Accelerating Materials Design via LLM-Guided Evolutionary Search
- arxiv url: http://arxiv.org/abs/2510.22503v1
- Date: Sun, 26 Oct 2025 02:47:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.22379
- Title: Accelerating Materials Design via LLM-Guided Evolutionary Search
- Title(参考訳): LLM誘導進化探索による材料設計の高速化
- Authors: Nikhil Abhyankar, Sanchit Kabra, Saaketh Desai, Chandan K. Reddy,
- Abstract要約: LLM-Guided Evolution for Materials Design (LLEMA) について述べる。
大規模言語モデルに埋め込まれた科学的知識と、化学インフォームド進化規則とメモリベースの洗練とを結びつける。
電子、エネルギー、コーティング、光学、航空宇宙にまたがる14の現実的なタスクを 評価しました
- 参考スコア(独自算出の注目度): 12.872214023537898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Materials discovery requires navigating vast chemical and structural spaces while satisfying multiple, often conflicting, objectives. We present LLM-guided Evolution for MAterials design (LLEMA), a unified framework that couples the scientific knowledge embedded in large language models with chemistry-informed evolutionary rules and memory-based refinement. At each iteration, an LLM proposes crystallographically specified candidates under explicit property constraints; a surrogate-augmented oracle estimates physicochemical properties; and a multi-objective scorer updates success/failure memories to guide subsequent generations. Evaluated on 14 realistic tasks spanning electronics, energy, coatings, optics, and aerospace, LLEMA discovers candidates that are chemically plausible, thermodynamically stable, and property-aligned, achieving higher hit-rates and stronger Pareto fronts than generative and LLM-only baselines. Ablation studies confirm the importance of rule-guided generation, memory-based refinement, and surrogate prediction. By enforcing synthesizability and multi-objective trade-offs, LLEMA delivers a principled pathway to accelerate practical materials discovery. Code: https://github.com/scientific-discovery/LLEMA
- Abstract(参考訳): 物質発見は、多数の、しばしば矛盾する目的を満たす一方で、広大な化学空間と構造空間をナビゲートする必要がある。
LLM-Guided Evolution for MAterials Design (LLEMA) は,大規模言語モデルに埋め込まれた科学知識を化学インフォームドな進化規則とメモリベースの改良と組み合わせた統一的なフレームワークである。
各イテレーションにおいて、LCMは明示的な特性制約の下で結晶学的に特定された候補を提案し、サロゲート付加オラクルは物理化学的特性を推定し、多目的スコアラーは成功/失敗記憶を更新し、その後の世代を導く。
電子、エネルギー、コーティング、光学、航空宇宙にまたがる14の現実的なタスクに基づいて評価され、LLEMAは、化学的に可塑性、熱力学的に安定、および特性に整合した候補を発見し、生成およびLLMのみのベースラインよりも高いヒット率と強力なパレートフロントを達成する。
アブレーション研究は、ルール誘導生成、メモリベースの洗練、代理予測の重要性を裏付けている。
合成可能性と多目的トレードオフを強制することにより、LLEMAは実用的な材料発見を加速するための原則的な経路を提供する。
コード:https://github.com/scientific-Discovery/LLEMA
関連論文リスト
- Role of Large Language Models and Retrieval-Augmented Generation for Accelerating Crystalline Material Discovery: A Systematic Review [0.0]
大規模言語モデル(LLM)は、ドメイン間の知識集約的なタスクのための強力なツールとして登場した。
Retrieval-augmented Generation(RAG)は、研究者が物質構造を予測する方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2025-08-08T20:32:56Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Auto-Bench: An Automated Benchmark for Scientific Discovery in LLMs [23.608962459019278]
自然科学と社会科学の両方において科学的発見のための大規模言語モデル(LLM)を評価するための新しいベンチマークを導入する。
我々のベンチマークは因果グラフ発見の原理に基づいており、隠れ構造を発見し、有効な正当性を生成することを含む最適な決定を行うためのモデルに挑戦する。
我々は,GPT-4,Gemini,Qwen,Claude,Llamaを含む最先端のLCMを評価し,問題を複雑化するにつれて性能低下を観測した。
論文 参考訳(メタデータ) (2025-02-21T05:35:20Z) - From Generalist to Specialist: A Survey of Large Language Models for Chemistry [14.317448405387195]
大言語モデル(LLM)は我々の日常生活を大きく変え、自然言語処理(NLP)の新しいパラダイムを確立した。
LLMの大規模なWebベースのテキストへの事前学習は、特に化学において先進的な科学的発見には不十分である。
化学におけるプレトレインド言語モデル(PLM)について、いくつかの研究がレビューされているが、化学指向のLSMに特に焦点を絞った系統的な調査は、顕著に行われていない。
論文 参考訳(メタデータ) (2024-12-28T03:40:25Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation [0.0]
大規模言語モデル(LLM)は本質的に長期記憶を欠いているため、ドメイン固有の文献やデータに基づいてそれらを微調整する非自明でアドホックで必然的にバイアスのあるタスクである。
本稿では、階層的推論・実行(RAG)エージェントのフレームワークであるLLaMPを紹介し、計算および実験データと相互作用できる。
微調整なしでは、LLaMPは材料科学の概念の様々なモダリティを理解し統合する強力なツール利用能力を示す。
論文 参考訳(メタデータ) (2024-01-30T18:37:45Z) - When Large Language Models Meet Evolutionary Algorithms: Potential Enhancements and Challenges [50.280704114978384]
事前訓練された大規模言語モデル(LLM)は、自然なテキストを生成する強力な能力を示す。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。