論文の概要: Universal Semantic Embeddings of Chemical Elements for Enhanced Materials Inference and Discovery
- arxiv url: http://arxiv.org/abs/2502.14912v1
- Date: Wed, 19 Feb 2025 07:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:10:21.307861
- Title: Universal Semantic Embeddings of Chemical Elements for Enhanced Materials Inference and Discovery
- Title(参考訳): 材料推論・発見のための化学元素の普遍的セマンティック埋め込み
- Authors: Yunze Jia, Yuehui Xian, Yangyang Xu, Pengfei Dang, Xiangdong Ding, Jun Sun, Yumei Zhou, Dezhen Xue,
- Abstract要約: 本稿では, 化学元素の普遍的なセマンティック埋め込みを創出し, 材料推論と発見を推し進める枠組みを提案する。
このフレームワークは、ドメイン固有のBERTベースの自然言語処理モデルであるElementBERTを利用する。
- 参考スコア(独自算出の注目度): 10.842037420887468
- License:
- Abstract: We present a framework for generating universal semantic embeddings of chemical elements to advance materials inference and discovery. This framework leverages ElementBERT, a domain-specific BERT-based natural language processing model trained on 1.29 million abstracts of alloy-related scientific papers, to capture latent knowledge and contextual relationships specific to alloys. These semantic embeddings serve as robust elemental descriptors, consistently outperforming traditional empirical descriptors with significant improvements across multiple downstream tasks. These include predicting mechanical and transformation properties, classifying phase structures, and optimizing materials properties via Bayesian optimization. Applications to titanium alloys, high-entropy alloys, and shape memory alloys demonstrate up to 23% gains in prediction accuracy. Our results show that ElementBERT surpasses general-purpose BERT variants by encoding specialized alloy knowledge. By bridging contextual insights from scientific literature with quantitative inference, our framework accelerates the discovery and optimization of advanced materials, with potential applications extending beyond alloys to other material classes.
- Abstract(参考訳): 本稿では, 化学元素の普遍的なセマンティック埋め込みを創出し, 材料推論と発見を推し進める枠組みを提案する。
このフレームワークは、ドメイン固有のBERTベースの自然言語処理モデルであるElementBERTを利用して、合金関連の科学論文の129万件の要約に基づいて訓練し、潜在知識と合金固有の文脈関係を捉える。
これらのセマンティック埋め込みは堅牢な要素記述子として機能し、複数の下流タスクで大幅に改善された従来の経験的記述子を一貫して上回っている。
これには、機械的および変換的性質の予測、相構造の分類、ベイズ最適化による材料特性の最適化が含まれる。
チタン合金、高エントロピー合金、形状記憶合金への応用は、予測精度が最大で23%向上することを示した。
以上の結果から,ElementBERTは特別な合金知識を符号化することで汎用BERTのバリエーションを超越していることがわかった。
科学的文献からの文脈的洞察を定量的な推論でブリッジすることで、我々の枠組みは先進的な物質の発見と最適化を加速し、潜在的な応用は合金から他の材料クラスまで及ぶ。
関連論文リスト
- DARWIN 1.5: Large Language Models as Materials Science Adapted Learners [46.7259033847682]
DARWIN 1.5は,材料科学に適したオープンソースの大規模言語モデルである。
DARWINはタスク固有の記述子の必要性を排除し、材料特性の予測と発見に対する柔軟な統一的なアプローチを可能にする。
提案手法は,6Mの物質ドメイン論文と49,256の物質から得られた21の実験データセットを統合し,タスク間の知識伝達を可能にする。
論文 参考訳(メタデータ) (2024-12-16T16:51:27Z) - Material Property Prediction with Element Attribute Knowledge Graphs and Multimodal Representation Learning [8.523289773617503]
要素特性知識グラフを構築し、埋め込みモデルを用いて、要素属性を知識グラフ内にエンコードする。
マルチモーダル融合フレームワークであるESNetは、要素特性特徴と結晶構造特徴を統合し、ジョイントマルチモーダル表現を生成する。
これは結晶材料の性能を予測するためのより包括的な視点を提供する。
論文 参考訳(メタデータ) (2024-11-13T08:07:21Z) - From Tokens to Materials: Leveraging Language Models for Scientific Discovery [12.211984932142537]
本研究では, 材料科学における材料特性予測のための言語モデル埋め込みの適用について検討した。
本研究では、ドメイン固有モデル、特にMatBERTが、複合名や材料特性から暗黙的な知識を抽出する際の汎用モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-21T16:31:23Z) - MELT: Materials-aware Continued Pre-training for Language Model Adaptation to Materials Science [19.967041632609526]
MELT (MatEriaLs-aware continued pre-Training) は、材料科学のための事前学習言語モデル (PLM) を効率的に適応させるように設計されている。
まず、セマンティックグラフを構築することによって、科学コーパスから総合的な資料知識基盤を構築する。
我々は、MELTの有効性と汎用性を検証するために、様々なベンチマークで広範な実験を行う。
論文 参考訳(メタデータ) (2024-10-19T14:49:03Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - AlloyBERT: Alloy Property Prediction with Large Language Models [5.812284760539713]
本研究は, テキスト入力による合金特性の予測を目的とした変圧器エンコーダモデル, AlloyBERTを紹介する。
テキストデータに基づいてトレーニングされたトークン化器とRoBERTaエンコーダを組み合わさることで,Multi principal Elemental Alloys (MPEA)データセットにおける平均2乗誤差(MSE)が0.00015,Refractory Alloy Yield Strength (RAYS)データセットで0.00611に達した。
本研究は,材料科学における言語モデルの可能性を強調し,合金特性のテキストベース予測のための基礎的枠組みを構築した。
論文 参考訳(メタデータ) (2024-03-28T19:09:46Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Leveraging Language Representation for Material Recommendation, Ranking,
and Exploration [0.0]
本稿では,言語モデルから派生した自然言語埋め込みを,構成的特徴と構造的特徴の表現として利用する材料発見フレームワークを提案する。
この枠組みを熱電学に適用することにより, 試作構造物の多種多様な推薦を行い, 未検討の高性能材料空間を同定する。
論文 参考訳(メタデータ) (2023-05-01T21:58:29Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z) - Improving Compositional Generalization in Semantic Parsing [54.4720965813889]
オフ・オブ・ディストリビューション(OOD)データへのモデルの一般化は、最近、大きな注目を集めている。
合成一般化のための自然なテストベッドである意味解析における合成一般化について検討する。
論文 参考訳(メタデータ) (2020-10-12T12:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。