論文の概要: LLMatDesign: Autonomous Materials Discovery with Large Language Models
- arxiv url: http://arxiv.org/abs/2406.13163v1
- Date: Wed, 19 Jun 2024 02:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:28:56.416822
- Title: LLMatDesign: Autonomous Materials Discovery with Large Language Models
- Title(参考訳): LLMatDesign: 大規模言語モデルによる自律的な材料発見
- Authors: Shuyi Jia, Chao Zhang, Victor Fung,
- Abstract要約: 新しい材料は科学的、技術的に重要な意味を持つ。
機械学習の最近の進歩により、データ駆動の手法により、有望な材料を素早くスクリーニングしたり、生成したりすることが可能になった。
LLMatDesignは,大規模言語モデルを用いた材料設計のための新しいフレームワークである。
- 参考スコア(独自算出の注目度): 5.481299708562135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Discovering new materials can have significant scientific and technological implications but remains a challenging problem today due to the enormity of the chemical space. Recent advances in machine learning have enabled data-driven methods to rapidly screen or generate promising materials, but these methods still depend heavily on very large quantities of training data and often lack the flexibility and chemical understanding often desired in materials discovery. We introduce LLMatDesign, a novel language-based framework for interpretable materials design powered by large language models (LLMs). LLMatDesign utilizes LLM agents to translate human instructions, apply modifications to materials, and evaluate outcomes using provided tools. By incorporating self-reflection on its previous decisions, LLMatDesign adapts rapidly to new tasks and conditions in a zero-shot manner. A systematic evaluation of LLMatDesign on several materials design tasks, in silico, validates LLMatDesign's effectiveness in developing new materials with user-defined target properties in the small data regime. Our framework demonstrates the remarkable potential of autonomous LLM-guided materials discovery in the computational setting and towards self-driving laboratories in the future.
- Abstract(参考訳): 新たな物質を発見することは、科学的、技術的に重要な意味を持つが、化学空間の永続性のために今日でも難しい問題となっている。
機械学習の最近の進歩により、データ駆動の手法で有望な材料を素早くスクリーニングしたり生成したりすることが可能になったが、これらの手法は依然として非常に大量のトレーニングデータに依存しており、材料発見においてしばしば望まれる柔軟性や化学的理解に欠けることが多い。
本稿では,LLMatDesignを紹介した。LLMatDesignは,大規模言語モデル(LLM)を用いた材料設計を解釈可能な新しい言語ベースのフレームワークである。
LLMatDesignは、LLMエージェントを使用して人間の指示を翻訳し、材料に修正を加え、提供されたツールを使用して結果を評価する。
LLMatDesignは、以前の決定に自己回帰を組み込むことで、ゼロショット方式で新しいタスクや条件に迅速に適応する。
LLMatDesignのいくつかの材料設計タスクにおける体系的評価は、小さなデータ構造においてユーザ定義のターゲット特性を持つ新しい材料を開発する上でのLLMatDesignの有効性を検証する。
本フレームワークは, 将来, 計算環境におけるLCM誘導材料発見の目覚ましい可能性を示すものである。
関連論文リスト
- RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Vector-ICL: In-context Learning with Continuous Vector Representations [75.96920867382859]
大規模言語モデル (LLM) はテキストデータに顕著なコンテキスト内学習能力を示す。
ブラックボックス事前学習エンコーダから得られる様々な領域から連続ベクトルに拡張できるかどうかを検討する。
特に,汎用言語モデリング目的のプロジェクタを事前学習することで,Vector-ICLの実現が期待できる。
論文 参考訳(メタデータ) (2024-10-08T02:25:38Z) - Learning to Ask: When LLMs Meet Unclear Instruction [49.256630152684764]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - HoneyComb: A Flexible LLM-Based Agent System for Materials Science [31.173615509567885]
HoneyCombは材料科学に特化した最初の大規模言語モデルシステムである。
MatSciKBは、信頼できる文献に基づいた、キュレートされた構造化された知識収集である。
ToolHubはインダクティブツール構築法を使用して、材料科学のためのAPIツールを生成し、分解し、洗練する。
論文 参考訳(メタデータ) (2024-08-29T15:38:40Z) - From Text to Insight: Large Language Models for Materials Science Data Extraction [4.08853418443192]
科学知識の大部分は、構造化されていない自然言語に存在する。
構造化データは革新的で体系的な材料設計に不可欠である。
大きな言語モデル(LLM)の出現は、大きな変化を示している。
論文 参考訳(メタデータ) (2024-07-23T22:23:47Z) - Are LLMs Ready for Real-World Materials Discovery? [10.87312197950899]
大規模言語モデル(LLM)は、材料科学の研究を加速する強力な言語処理ツールのエキサイティングな可能性を生み出します。
LLMは、物質理解と発見を加速する大きな可能性を秘めているが、現在は実用的な材料科学ツールとして不足している。
材料科学におけるLLMの失敗事例として,複雑で相互接続された材料科学知識の理解と推論に関連するLCMの現在の限界を明らかにする。
論文 参考訳(メタデータ) (2024-02-07T19:10:36Z) - Multimodal Learning for Materials [7.167520424757711]
材料の基礎モデルの自己教師型マルチモーダルトレーニングを可能にするマルチモーダル・ラーニング・フォー・マテリアル(MultiMat)を紹介した。
複数の軸上のMaterial Projectデータベースからのデータを用いてフレームワークの可能性を示す。
論文 参考訳(メタデータ) (2023-11-30T18:35:29Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - CRITIC: Large Language Models Can Self-Correct with Tool-Interactive
Critiquing [139.77117915309023]
CRITICは、大規模な言語モデルに対して、ツールとのヒューマンインタラクションに似た方法で、自分たちのアウトプットの検証と修正を可能にする。
自由形式の質問応答、数学的プログラム合成、毒性低減を含む包括的評価は、CRITICがLLMの性能を一貫して向上することを証明している。
論文 参考訳(メタデータ) (2023-05-19T15:19:44Z) - Artificial intelligence approaches for materials-by-design of energetic
materials: state-of-the-art, challenges, and future directions [0.0]
我々は,AIによる材料設計の進歩とそのエネルギー材料への応用についてレビューする。
文献における手法を,少数のデータから学習する能力の観点から評価する。
本稿では,メタラーニング,アクティブラーニング,ベイズラーニング,半/弱教師付きラーニングなど,EM教材の今後の研究方向性について提案する。
論文 参考訳(メタデータ) (2022-11-15T14:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。