論文の概要: CataLM: Empowering Catalyst Design Through Large Language Models
- arxiv url: http://arxiv.org/abs/2405.17440v1
- Date: Mon, 13 May 2024 03:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-02 14:30:04.774609
- Title: CataLM: Empowering Catalyst Design Through Large Language Models
- Title(参考訳): CataLM: 大規模言語モデルによる触媒設計の強化
- Authors: Ludi Wang, Xueqing Chen, Yi Du, Yuanchun Zhou, Yang Gao, Wenjuan Cui,
- Abstract要約: 電気触媒材料の領域に合わせた大規模言語モデルである CataLM Catalytic Language Model を紹介する。
触媒知識の探索と設計において, CataLM は人間とAIの協調を促進する重要な可能性を示している。
- 参考スコア(独自算出の注目度): 12.099495038107552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of catalysis holds paramount importance in shaping the trajectory of sustainable development, prompting intensive research efforts to leverage artificial intelligence (AI) in catalyst design. Presently, the fine-tuning of open-source large language models (LLMs) has yielded significant breakthroughs across various domains such as biology and healthcare. Drawing inspiration from these advancements, we introduce CataLM Cata}lytic Language Model), a large language model tailored to the domain of electrocatalytic materials. Our findings demonstrate that CataLM exhibits remarkable potential for facilitating human-AI collaboration in catalyst knowledge exploration and design. To the best of our knowledge, CataLM stands as the pioneering LLM dedicated to the catalyst domain, offering novel avenues for catalyst discovery and development.
- Abstract(参考訳): 触媒学の分野は、持続可能な発展の軌跡を形成する上で最重要であり、触媒設計において人工知能(AI)を活用するための集中的な研究努力を促している。
現在、オープンソースの大規模言語モデル(LLM)の微調整は、生物学や医療など、さまざまな領域で大きなブレークスルーをもたらしている。
これらの進歩からインスピレーションを得て,電気触媒材料の領域に合わせた大規模言語モデルであるCataLM Cata}lytic Language Modelを紹介した。
触媒知識の探索と設計において, CataLM は人間とAIの協調を促進する重要な可能性を示している。
私たちの知る限りでは、CataLMは触媒ドメインに特化したLLMの先駆的な存在であり、触媒発見と開発のための新しい道を提供する。
関連論文リスト
- From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Generative Language Model for Catalyst Discovery [0.0]
化学空間から無機触媒構造の文字列表現を生成するために訓練されたCatalyst Generative Pretrained Transformer (CatGPT)を導入する。
CatGPTは有効かつ正確な触媒構造を生成する上で高い性能を示すだけでなく、所望の触媒の種類を生成するための基礎モデルとしても機能する。
論文 参考訳(メタデータ) (2024-07-19T05:34:08Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - A Machine Learning and Explainable AI Framework Tailored for Unbalanced Experimental Catalyst Discovery [10.92613600218535]
各種成分の触媒収率を正確に分類するために,堅牢な機械学習と説明可能なAI(XAI)フレームワークを導入する。
このフレームワークは、触媒データの不足と不均衡を処理するために設計された一連のMLプラクティスを組み合わせる。
このような知見は, 新規触媒の開発・同定において, 優れた性能を有する化学者を支援することができると信じている。
論文 参考訳(メタデータ) (2024-07-10T13:09:53Z) - MoE-CT: A Novel Approach For Large Language Models Training With Resistance To Catastrophic Forgetting [53.77590764277568]
ベースモデルの学習を多言語拡張プロセスから分離する新しいMoE-CTアーキテクチャを提案する。
我々の設計では、元のLLMパラメータを凍結し、高リソース言語のパフォーマンスを保護しますが、様々な言語データセットに基づいてトレーニングされたMoEモジュールは、低リソース言語の習熟度を向上します。
論文 参考訳(メタデータ) (2024-06-25T11:03:45Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - ChemReasoner: Heuristic Search over a Large Language Model's Knowledge Space using Quantum-Chemical Feedback [37.06094829713273]
新しい触媒の発見は、新しいより効率的な化学プロセスの設計に不可欠である。
量子化学に基づく3次元原子論表現からのフィードバックで言語推論を統一するAI誘導型計算スクリーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-15T21:33:07Z) - An Artificial Intelligence (AI) workflow for catalyst design and
optimization [4.192356938537922]
本研究では,大規模言語モデル(LLM),ベイズ最適化,アクティブ学習ループを統合した,革新的な人工知能(AI)ワークフローを提案する。
提案手法は,高度な言語理解と頑健な最適化戦略を組み合わせることで,多種多様な文献から抽出した知識を実用的なパラメータに効果的に翻訳する。
その結果、従来の方法に代わる迅速で資源効率が高く高精度な触媒開発プロセスを効率化するワークフローの能力を強調した。
論文 参考訳(メタデータ) (2024-02-07T03:25:08Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - Catalysis distillation neural network for the few shot open catalyst
challenge [1.1878820609988694]
本稿では,機械学習の反応予測への応用を推し進めるコンペであるFew-Shot Open Catalyst Challenge 2023を紹介する。
触媒蒸留グラフニューラルネットワーク(CDGNN)というフレームワークを用いた機械学習手法を提案する。
その結果,CDGNNは触媒構造からの埋め込みを効果的に学習し,構造吸着関係の捕捉を可能にした。
論文 参考訳(メタデータ) (2023-05-31T04:23:56Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。