論文の概要: What do Large Language Models know about materials?
- arxiv url: http://arxiv.org/abs/2507.14586v1
- Date: Sat, 19 Jul 2025 12:02:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.953204
- Title: What do Large Language Models know about materials?
- Title(参考訳): 大規模言語モデルは材料について何を知っているか?
- Authors: Adrian Ehrenhofer, Thomas Wallmersperger, Gianaurelio Cuniberti,
- Abstract要約: 大規模言語モデル(LLM)は、機械工学や材料科学の分野でますます応用されている。
材料指紋の特異性に対する語彙とトークン化の役割を強調した。
これにより、情報選択のための物質知識ベンチマークが作成され、PSPPチェーンのLCMのステップが適用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly applied in the fields of mechanical engineering and materials science. As models that establish connections through the interface of language, LLMs can be applied for step-wise reasoning through the Processing-Structure-Property-Performance chain of material science and engineering. Current LLMs are built for adequately representing a dataset, which is the most part of the accessible internet. However, the internet mostly contains non-scientific content. If LLMs should be applied for engineering purposes, it is valuable to investigate models for their intrinsic knowledge -- here: the capacity to generate correct information about materials. In the current work, for the example of the Periodic Table of Elements, we highlight the role of vocabulary and tokenization for the uniqueness of material fingerprints, and the LLMs' capabilities of generating factually correct output of different state-of-the-art open models. This leads to a material knowledge benchmark for an informed choice, for which steps in the PSPP chain LLMs are applicable, and where specialized models are required.
- Abstract(参考訳): 大規模言語モデル(LLM)は、機械工学や材料科学の分野でますます応用されている。
言語インターフェースを通じて接続を確立するモデルとして、LLMは、物質科学と工学のプロセス構造-性能-性能チェーンを通じて段階的推論に応用できる。
現在のLLMは、アクセス可能なインターネットのほとんどの部分であるデータセットを適切に表現するために構築されている。
しかし、インターネットには科学的でないコンテンツがほとんど含まれている。
LLMがエンジニアリング目的で適用されるべきなら、本質的な知識のモデルを調べることは価値がある。
現在の研究では、例えば周期的要素表(英語版)では、材料指紋の特異性に対する語彙とトークン化の役割と、異なる最先端のオープンモデルの事実正しい出力を生成するLLMの能力を強調している。
このことは、PSPPチェーンのLCMのステップが適用可能であり、特別なモデルが必要な場合に、情報選択のための物質知識ベンチマークにつながる。
関連論文リスト
- MatterChat: A Multi-Modal LLM for Material Science [33.185590479147805]
マルチモーダルな多モード言語モデルであるMatterChatを紹介する。
そこで,MatterChatは材料特性予測と人間-AIインタラクションの性能を大幅に向上させることを示す。
また、より高度な科学的推論やステップバイステップの物質合成などの応用においても有用性を示す。
論文 参考訳(メタデータ) (2025-02-18T18:19:36Z) - Enhancing Code Generation for Low-Resource Languages: No Silver Bullet [55.39571645315926]
大規模言語モデル(LLM)は、プログラミング言語の構文、意味論、使用パターンを学ぶために、大規模で多様なデータセットに依存している。
低リソース言語では、そのようなデータの限られた可用性は、モデルを効果的に一般化する能力を損なう。
本稿では,低リソース言語におけるLLMの性能向上のためのいくつかの手法の有効性を実証研究する。
論文 参考訳(メタデータ) (2025-01-31T12:23:28Z) - Enhancing Large Language Models with Domain-Specific Knowledge: The Case in Topological Materials [4.654635844923322]
大規模言語モデル (LLM) はテキスト生成タスクにおいて顕著な性能を示した。
TopoChatと呼ばれるトポロジカル材料のための対話システムを開発した。
TopoChatは、構造およびプロパティクエリ、マテリアルレコメンデーション、複雑なリレーショナル推論において優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-10T06:01:16Z) - From Text to Insight: Large Language Models for Materials Science Data Extraction [4.08853418443192]
科学知識の大部分は、構造化されていない自然言語に存在する。
構造化データは革新的で体系的な材料設計に不可欠である。
大きな言語モデル(LLM)の出現は、大きな変化を示している。
論文 参考訳(メタデータ) (2024-07-23T22:23:47Z) - LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation [0.0]
大規模言語モデル(LLM)は本質的に長期記憶を欠いているため、ドメイン固有の文献やデータに基づいてそれらを微調整する非自明でアドホックで必然的にバイアスのあるタスクである。
本稿では、階層的推論・実行(RAG)エージェントのフレームワークであるLLaMPを紹介し、計算および実験データと相互作用できる。
微調整なしでは、LLaMPは材料科学の概念の様々なモダリティを理解し統合する強力なツール利用能力を示す。
論文 参考訳(メタデータ) (2024-01-30T18:37:45Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - The Quo Vadis of the Relationship between Language and Large Language
Models [3.10770247120758]
LLM(Large Language Models)は、LLMを言語科学モデルとして採用することを奨励している。
透明性に欠ける科学的モデルの導入によって引き起こされる最も重要な理論的および経験的リスクを特定します。
現在の開発段階において、LLMは言語に関する説明をほとんど提供していないと結論付けている。
論文 参考訳(メタデータ) (2023-10-17T10:54:24Z) - 14 Examples of How LLMs Can Transform Materials Science and Chemistry: A
Reflection on a Large Language Model Hackathon [30.978561315637307]
大規模言語モデル(LLM)は化学や材料科学に有用である。
これらの可能性を探るため、ハッカソンを組織した。
この記事ではハッカソンの一部として構築されたプロジェクトを概説する。
論文 参考訳(メタデータ) (2023-06-09T22:22:02Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。