論文の概要: Materials science in the era of large language models: a perspective
- arxiv url: http://arxiv.org/abs/2403.06949v1
- Date: Mon, 11 Mar 2024 17:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 17:57:04.915510
- Title: Materials science in the era of large language models: a perspective
- Title(参考訳): 大規模言語モデルにおける材料科学の展望
- Authors: Ge Lei, Ronan Docherty, Samuel J. Cooper
- Abstract要約: 大きな言語モデル(LLM)は、その印象的な能力によってかなりの関心を集めている。
この論文は、様々なタスクや規律にわたる曖昧な要求に対処する能力は、研究者を支援する強力なツールになり得ると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have garnered considerable interest due to their
impressive natural language capabilities, which in conjunction with various
emergent properties make them versatile tools in workflows ranging from complex
code generation to heuristic finding for combinatorial problems. In this paper
we offer a perspective on their applicability to materials science research,
arguing their ability to handle ambiguous requirements across a range of tasks
and disciplines mean they could be a powerful tool to aid researchers. We
qualitatively examine basic LLM theory, connecting it to relevant properties
and techniques in the literature before providing two case studies that
demonstrate their use in task automation and knowledge extraction at-scale. At
their current stage of development, we argue LLMs should be viewed less as
oracles of novel insight, and more as tireless workers that can accelerate and
unify exploration across domains. It is our hope that this paper can
familiarise material science researchers with the concepts needed to leverage
these tools in their own research.
- Abstract(参考訳): 大きな言語モデル(LLM)は、その印象的な自然言語能力によって、複雑なコード生成から組み合わせの問題に対するヒューリスティックな発見まで、ワークフローにおいて、様々な創発的な特性と組み合わせることで、かなりの関心を集めている。
本稿では, 材料科学研究への適用性について考察し, 課題や規律の多岐にわたるあいまいな要求に対処できることは, 研究者を支援する強力なツールになり得ることを論じる。
基礎的llm理論を定性的に検討し,関連する特性や文献の技法と結びつけ,タスク自動化と知識抽出における2つの事例研究を行った。
現段階では、LSMは新たな洞察のオラクルとしてではなく、ドメイン間の探索を加速し統一できるタイヤレス労働者として見るべきだ、と私たちは主張する。
本論文は,これらのツールを自身の研究で活用するために必要な概念を,物質科学研究者に親しみやすくすることを願っている。
関連論文リスト
- An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - Quantitative knowledge retrieval from large language models [4.155711233354597]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
本稿では,データ解析作業を支援するための定量的知識検索のメカニズムとして,LLMの実現可能性について検討する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Efficient Large Language Models: A Survey [46.61952262803192]
大規模言語モデル(LLM)は、自然言語理解、言語生成、複雑な推論といった重要なタスクにおいて顕著な能力を示している。
これらの能力には、彼らが要求する膨大なリソースが伴い、効率の課題に対処する効果的なテクニックを開発することの強いニーズが浮かび上がっています。
文献を3つの主要なカテゴリからなる分類学で整理し、異なるが相互に相互に繋がる効率的なLLMのトピックを網羅する。
論文 参考訳(メタデータ) (2023-12-06T19:18:42Z) - MechGPT, a language-based strategy for mechanics and materials modeling
that connects knowledge across scales, disciplines and modalities [0.0]
我々は,Large Language Model (LLM) を用いて,質問応答対を原料から抽出し,微調整する。
得られたMechGPT LLM基盤モデルは、知識検索、様々な言語タスク、仮説生成、異なる領域にわたる知識の接続能力を調べるために、一連の計算実験で使用される。
論文 参考訳(メタデータ) (2023-10-16T14:29:35Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z) - A Comprehensive Overview of Large Language Models [70.78732351626734]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Probing Across Time: What Does RoBERTa Know and When? [70.20775905353794]
言語知識は、ドメイン間で高速、安定、そして堅牢に獲得されることを示す。
事実と常識はより遅く、ドメインに敏感です。
クロスタイム探索は、これらのモデルが生み出す複雑で混ざった学習を理解するのに役立ち、必要な学習を迅速に行うためのより効率的なアプローチへと導いてくれると信じています。
論文 参考訳(メタデータ) (2021-04-16T04:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。