論文の概要: Self-supervised learning for crystal property prediction via denoising
- arxiv url: http://arxiv.org/abs/2408.17255v1
- Date: Fri, 30 Aug 2024 12:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 15:18:38.060161
- Title: Self-supervised learning for crystal property prediction via denoising
- Title(参考訳): 自己教師型学習によるデノナイジングによる結晶特性予測
- Authors: Alexander New, Nam Q. Le, Michael J. Pekala, Christopher D. Stiles,
- Abstract要約: 材料特性予測のための新たな自己教師型学習(SSL)戦略を提案する。
本手法は, 自己教師付き学習(CDSSL)の結晶化であり, 有意な材料構造を復元する前提条件付き予測モデルを事前訓練する。
CDSSLモデルがSSLなしでトレーニングされたモデル、素材タイプ、プロパティ、データセットサイズを上回るパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 43.148818844265236
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate prediction of the properties of crystalline materials is crucial for targeted discovery, and this prediction is increasingly done with data-driven models. However, for many properties of interest, the number of materials for which a specific property has been determined is much smaller than the number of known materials. To overcome this disparity, we propose a novel self-supervised learning (SSL) strategy for material property prediction. Our approach, crystal denoising self-supervised learning (CDSSL), pretrains predictive models (e.g., graph networks) with a pretext task based on recovering valid material structures when given perturbed versions of these structures. We demonstrate that CDSSL models out-perform models trained without SSL, across material types, properties, and dataset sizes.
- Abstract(参考訳): 結晶材料の特性の正確な予測は、ターゲットとなる発見に不可欠であり、この予測はデータ駆動モデルでますます行われている。
しかし、多くの利害関係において、特定の性質が決定された資料の数は、既知の資料の数よりもはるかに少ない。
この格差を克服するために,物質的特性予測のための新たな自己教師型学習(SSL)戦略を提案する。
本手法では, 自己教師付き学習(CDSSL)の結晶化, 予測モデル(グラフネットワークなど)の事前学習を行う。
CDSSLモデルがSSLなしでトレーニングされたモデル、素材タイプ、プロパティ、データセットサイズを上回るパフォーマンスを示す。
関連論文リスト
- Efficient Training of Self-Supervised Speech Foundation Models on a
Compute Budget [57.807614181024114]
本稿では,限定的な計算予算の下で,自己教師付き学習(SSL)を用いて音声基礎モデルを効率的に訓練する方法を検討する。
モデルアーキテクチャ、モデルサイズ、データサイズなど、予算に影響を与えるSSLの重要な要因について検討する。
論文 参考訳(メタデータ) (2024-09-09T10:36:42Z) - Out-of-distribution materials property prediction using adversarial learning based fine-tuning [0.0]
本稿では,特定のデータセットに適応させるための微調整アプローチをターゲットとした逆学習を提案する。
実験では,限られたサンプルを持つMLにおいて,CALアルゴリズムの成功を高い有効性で実証した。
論文 参考訳(メタデータ) (2024-08-17T21:22:21Z) - Fine-Tuned Language Models Generate Stable Inorganic Materials as Text [57.01994216693825]
テキストエンコードされた原子構造データに基づく微調整された大規模言語モデルは、実装が簡単で信頼性が高い。
我々の最強モデルは、CDVAEの約2倍の速度で準安定であると予測された物質を生成することができる。
テキストプロンプト固有の柔軟性のため、我々のモデルは安定物質を無条件に生成するために同時に使用することができる。
論文 参考訳(メタデータ) (2024-02-06T20:35:28Z) - Materials Informatics Transformer: A Language Model for Interpretable
Materials Properties Prediction [6.349503549199403]
本稿では,材料特性予測のための材料情報変換器(MatInFormer)について紹介する。
具体的には、関連する空間群情報のトークン化を通じて結晶学の文法を学習する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-30T18:34:55Z) - Self-Supervision for Tackling Unsupervised Anomaly Detection: Pitfalls
and Opportunities [50.231837687221685]
自己教師付き学習(SSL)は、機械学習とその多くの現実世界のアプリケーションに変化をもたらした。
非教師なし異常検出(AD)は、自己生成性擬似異常によりSSLにも乗じている。
論文 参考訳(メタデータ) (2023-08-28T07:55:01Z) - CrysGNN : Distilling pre-trained knowledge to enhance property
prediction for crystalline materials [25.622724168215097]
本稿では結晶材料のための新しいトレーニング済みGNNフレームワークであるCrysGNNについて述べる。
これは、未ラベルの材料データを用いて、結晶グラフのノードレベルとグラフレベルの構造情報をキャプチャする。
我々は、事前訓練されたモデルから知識を抽出することで、全てのSOTAアルゴリズムがベニラバージョンを良好なマージンで上回ることができることを示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-01-14T08:12:01Z) - Graph Contrastive Learning for Materials [6.667711415870472]
本稿では,CrystalCLRを紹介した。CrystalCLRは,Crystal Graph Neural Networkを用いた表現のコンストラクティブ学習のためのフレームワークである。
新たな損失関数が加わったことにより,我々のフレームワークは,工学的フィンガープリント手法と競合する表現を学習することができる。
また、モデル微調整により、対照的な事前学習により、物質特性の予測のためのグラフニューラルネットワークの性能が向上することを示した。
論文 参考訳(メタデータ) (2022-11-24T04:15:47Z) - The Geometry of Self-supervised Learning Models and its Impact on
Transfer Learning [62.601681746034956]
自己教師型学習(SSL)はコンピュータビジョンにおいて望ましいパラダイムとして登場した。
本稿では,各特徴空間内の局所的近傍を用いて異なるSSLモデルを分析するためのデータ駆動幾何学的手法を提案する。
論文 参考訳(メタデータ) (2022-09-18T18:15:38Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Crystal Twins: Self-supervised Learning for Crystalline Material
Property Prediction [8.048439531116367]
結晶性物質特性予測のためのSSL法であるCrystal Twins(CT)を紹介する。
我々は、拡張インスタンスのグラフ潜在埋め込みに冗長性低減原理を適用して、グラフニューラルネットワーク(GNN)を事前訓練する。
回帰タスクのGNNを微調整する際の事前学習重みの共有により、7つの課題のある材料特性予測ベンチマークの性能を著しく改善する。
論文 参考訳(メタデータ) (2022-05-04T05:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。