論文の概要: Large language models in materials science and the need for open-source approaches
- arxiv url: http://arxiv.org/abs/2511.10673v1
- Date: Mon, 10 Nov 2025 00:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.254127
- Title: Large language models in materials science and the need for open-source approaches
- Title(参考訳): 材料科学における大規模言語モデルとオープンソースアプローチの必要性
- Authors: Fengxu Yang, Weitong Chen, Jack D. Evans,
- Abstract要約: 材料発見パイプライン全体にわたる最近の大規模言語モデル(LLM)の応用についてレビューする。
テキストから合成条件などの貴重な情報をLLMがどのように抽出するかを強調した。
ベンチマーク結果によると、オープンソースの代替手段は、透明性、コスト効率、データプライバシを提供しながら、パフォーマンスにマッチする可能性がある。
オープンソースモデルの改善が進むにつれて、科学的な発見のためにアクセスしやすく、柔軟で、コミュニティ主導のAIプラットフォームを構築するための、より広範な採用を提唱します。
- 参考スコア(独自算出の注目度): 3.35950184561189
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are rapidly transforming materials science. This review examines recent LLM applications across the materials discovery pipeline, focusing on three key areas: mining scientific literature , predictive modelling, and multi-agent experimental systems. We highlight how LLMs extract valuable information such as synthesis conditions from text, learn structure-property relationships, and can coordinate agentic systems integrating computational tools and laboratory automation. While progress has been largely dependent on closed-source commercial models, our benchmark results demonstrate that open-source alternatives can match performance while offering greater transparency, reproducibility, cost-effectiveness, and data privacy. As open-source models continue to improve, we advocate their broader adoption to build accessible, flexible, and community-driven AI platforms for scientific discovery.
- Abstract(参考訳): 大規模言語モデル(LLM)は急速に材料科学に変化をもたらしている。
本稿では, 材料発見パイプラインにおける最近のLCM応用について検討し, 鉱業科学文献, 予測モデリング, マルチエージェント実験システムという3つの重要な分野に注目した。
我々は,LLMがテキストから合成条件などの貴重な情報を抽出し,構造-プロパティ関係を学習し,計算機ツールと実験室自動化を統合したエージェントシステムを協調させる方法について強調する。
進捗はクローズドソースの商用モデルに大きく依存していますが、ベンチマークの結果は、より透明性、再現性、コスト効率、データプライバシを提供しながら、オープンソースの代替手段がパフォーマンスにマッチできることを示しています。
オープンソースモデルの改善が進むにつれて、科学的な発見のためにアクセスしやすく、柔軟で、コミュニティ主導のAIプラットフォームを構築するための、より広範な採用を提唱します。
関連論文リスト
- LeMat-Synth: a multi-modal toolbox to curate broad synthesis procedure databases from scientific literature [60.879220305044726]
本稿では,大規模言語モデル (LLM) と視覚言語モデル (VLM) を用いて合成手順と性能データを自動抽出・整理するマルチモーダルツールボックスを提案する。
LeMat-Synth (v 1.0):35種類の合成法と16種類の材料クラスにまたがる合成手順を含むデータセット。
我々は,新しいコーパスと合成ドメインへのコミュニティ主導の拡張をサポートするために設計された,モジュール形式のオープンソースライブラリをリリースする。
論文 参考訳(メタデータ) (2025-10-28T17:58:18Z) - Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - Rethinking Scale: The Efficacy of Fine-Tuned Open-Source LLMs in Large-Scale Reproducible Social Science Research [0.0]
大規模言語モデル(LLM)は、パラメータのサイズと性能を規定するアーキテクチャによって区別される。
社会科学者はテキスト分類タスクにLLMを採用しており、人間のコーダーではスケールが難しい。
本研究は,ChatGPT-4 などのモデルに対して,小型かつ微調整のオープンソース LLM が同等あるいは優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-31T20:26:30Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - From Text to Insight: Large Language Models for Materials Science Data Extraction [4.08853418443192]
科学知識の大部分は、構造化されていない自然言語に存在する。
構造化データは革新的で体系的な材料設計に不可欠である。
大きな言語モデル(LLM)の出現は、大きな変化を示している。
論文 参考訳(メタデータ) (2024-07-23T22:23:47Z) - Accelerating materials discovery for polymer solar cells: Data-driven insights enabled by natural language processing [5.527358421206627]
本稿では, 高分子太陽電池ドナー/アクセプターペアの発見のための各種能動的学習手法のシミュレーションを行う。
提案手法は, 材料革新の15年間の加速に相当し, 発見時間を約75%短縮する可能性を示した。
論文 参考訳(メタデータ) (2024-02-29T18:54:46Z) - Agent-based Learning of Materials Datasets from Scientific Literature [0.0]
我々は,大規模言語モデル(LLM)を利用した化学AIエージェントを開発し,自然言語テキストから構造化データセットを作成する。
化学者のAIエージェントであるEunomiaは、何十年もの科学研究論文から既存の知識を活用して、行動を計画し実行することができる。
論文 参考訳(メタデータ) (2023-12-18T20:29:58Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。