論文の概要: Materials science in the era of large language models: a perspective
- arxiv url: http://arxiv.org/abs/2403.06949v1
- Date: Mon, 11 Mar 2024 17:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 17:57:04.915510
- Title: Materials science in the era of large language models: a perspective
- Title(参考訳): 大規模言語モデルにおける材料科学の展望
- Authors: Ge Lei, Ronan Docherty, Samuel J. Cooper
- Abstract要約: 大きな言語モデル(LLM)は、その印象的な能力によってかなりの関心を集めている。
この論文は、様々なタスクや規律にわたる曖昧な要求に対処する能力は、研究者を支援する強力なツールになり得ると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have garnered considerable interest due to their
impressive natural language capabilities, which in conjunction with various
emergent properties make them versatile tools in workflows ranging from complex
code generation to heuristic finding for combinatorial problems. In this paper
we offer a perspective on their applicability to materials science research,
arguing their ability to handle ambiguous requirements across a range of tasks
and disciplines mean they could be a powerful tool to aid researchers. We
qualitatively examine basic LLM theory, connecting it to relevant properties
and techniques in the literature before providing two case studies that
demonstrate their use in task automation and knowledge extraction at-scale. At
their current stage of development, we argue LLMs should be viewed less as
oracles of novel insight, and more as tireless workers that can accelerate and
unify exploration across domains. It is our hope that this paper can
familiarise material science researchers with the concepts needed to leverage
these tools in their own research.
- Abstract(参考訳): 大きな言語モデル(LLM)は、その印象的な自然言語能力によって、複雑なコード生成から組み合わせの問題に対するヒューリスティックな発見まで、ワークフローにおいて、様々な創発的な特性と組み合わせることで、かなりの関心を集めている。
本稿では, 材料科学研究への適用性について考察し, 課題や規律の多岐にわたるあいまいな要求に対処できることは, 研究者を支援する強力なツールになり得ることを論じる。
基礎的llm理論を定性的に検討し,関連する特性や文献の技法と結びつけ,タスク自動化と知識抽出における2つの事例研究を行った。
現段階では、LSMは新たな洞察のオラクルとしてではなく、ドメイン間の探索を加速し統一できるタイヤレス労働者として見るべきだ、と私たちは主張する。
本論文は,これらのツールを自身の研究で活用するために必要な概念を,物質科学研究者に親しみやすくすることを願っている。
関連論文リスト
- Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Efficient Large Language Models: A Survey [45.39970635367852]
この調査は、効率的な大規模言語モデル研究の体系的で包括的なレビューを提供する。
文献を3つの主要なカテゴリからなる分類学で整理し、異なるが相互に相互に繋がる効率的なLLMのトピックを網羅する。
この調査で特集された論文を整理するGitHubリポジトリも作成しました。
論文 参考訳(メタデータ) (2023-12-06T19:18:42Z) - MechGPT, a language-based strategy for mechanics and materials modeling
that connects knowledge across scales, disciplines and modalities [0.0]
我々は,Large Language Model (LLM) を用いて,質問応答対を原料から抽出し,微調整する。
得られたMechGPT LLM基盤モデルは、知識検索、様々な言語タスク、仮説生成、異なる領域にわたる知識の接続能力を調べるために、一連の計算実験で使用される。
論文 参考訳(メタデータ) (2023-10-16T14:29:35Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。