論文の概要: PhAST: Physics-Aware, Scalable, and Task-specific GNNs for Accelerated
Catalyst Design
- arxiv url: http://arxiv.org/abs/2211.12020v1
- Date: Tue, 22 Nov 2022 05:24:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 19:24:03.213928
- Title: PhAST: Physics-Aware, Scalable, and Task-specific GNNs for Accelerated
Catalyst Design
- Title(参考訳): PhAST:加速触媒設計のための物理認識,スケーラブル,タスク固有GNN
- Authors: Alexandre Duval, Victor Schmidt, Santiago Miret, Yoshua Bengio, Alex
Hern\'andez-Garc\'ia, David Rolnick
- Abstract要約: 機械学習は、大量のデータから材料の特性を効率的にモデル化する可能性を秘めている。
本稿では,計算効率と精度を両立させるタスク特化技術を提案する。
- 参考スコア(独自算出の注目度): 124.45503975077983
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Mitigating the climate crisis requires a rapid transition towards lower
carbon energy. Catalyst materials play a crucial role in the electrochemical
reactions involved in a great number of industrial processes key to this
transition, such as renewable energy storage and electrofuel synthesis. To
reduce the amount of energy spent on such processes, we must quickly discover
more efficient catalysts to drive the electrochemical reactions. Machine
learning (ML) holds the potential to efficiently model the properties of
materials from large amounts of data, and thus to accelerate electrocatalyst
design. The Open Catalyst Project OC20 data set was constructed to that end.
However, most existing ML models trained on OC20 are still neither scalable nor
accurate enough for practical applications. Here, we propose several
task-specific innovations, applicable to most architectures, which increase
both computational efficiency and accuracy. In particular, we propose
improvements in (1) the graph creation step, (2) atom representations and (3)
the energy prediction head. We describe these contributions and evaluate them
on several architectures, showing up to 5$\times$ reduction in inference time
without sacrificing accuracy.
- Abstract(参考訳): 気候変動の緩和には、低炭素エネルギーへの急速な移行が必要である。
触媒材料は、再生可能エネルギー貯蔵や電気燃料合成など、この遷移の鍵となる多くの産業プロセスに関わる電気化学反応において重要な役割を果たす。
このようなプロセスに費やされるエネルギーを減らすために、電気化学反応を駆動するより効率的な触媒を迅速に発見する必要がある。
機械学習(ML)は、大量のデータから材料の特性を効率的にモデル化し、電気触媒設計を加速する可能性を持っている。
この目的のためにopen catalyst project oc20データセットが構築された。
しかし、OC20でトレーニングされた既存のMLモデルの多くは、実用アプリケーションに十分なスケーラビリティや正確性を持っていない。
本稿では,計算効率と精度を両立させる多くのアーキテクチャに適用可能なタスク固有の技術革新を提案する。
特に,(1)グラフ生成ステップ,(2)原子表現,(3)エネルギー予測ヘッドの改良を提案する。
これらのコントリビューションを記述し、いくつかのアーキテクチャ上で評価し、精度を犠牲にすることなく最大5$\times$推論時間を短縮する。
関連論文リスト
- Efficient Transformer Encoders for Mask2Former-style models [57.54752243522298]
ECO-M2Fは、入力画像上に条件付きエンコーダ内の隠蔽層数を自己選択する戦略である。
提案手法は、性能を維持しながら、予測エンコーダの計算コストを削減する。
アーキテクチャ構成では柔軟性があり、セグメンテーションタスクを超えてオブジェクト検出まで拡張できる。
論文 参考訳(メタデータ) (2024-04-23T17:26:34Z) - Lightweight Geometric Deep Learning for Molecular Modelling in Catalyst Discovery [0.0]
Open Catalyst Projectは、グラフニューラルネットワーク(GNN)の進歩を適用して、触媒発見の進展を加速することを目的としている。
幾何学的および対称的なメッセージパッシングのようなロバストな設計パターンを実装することで、吸着と表面の相互作用の原子間力を予測するために、0.0748のMAEに達したGNNモデルを訓練することができた。
論文 参考訳(メタデータ) (2024-04-05T17:13:51Z) - Energy Transformer [64.22957136952725]
我々の研究は、機械学習における有望な3つのパラダイム、すなわち注意機構、エネルギーベースモデル、連想記憶の側面を組み合わせる。
本稿では,エネルギー変換器(ET,Energy Transformer)と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-14T18:51:22Z) - Molecular Geometry-aware Transformer for accurate 3D Atomic System
modeling [51.83761266429285]
本稿では,ノード(原子)とエッジ(結合と非結合の原子対)を入力とし,それらの相互作用をモデル化するトランスフォーマーアーキテクチャを提案する。
MoleformerはOC20の緩和エネルギー予測の初期状態の最先端を実現し、QM9では量子化学特性の予測に非常に競争力がある。
論文 参考訳(メタデータ) (2023-02-02T03:49:57Z) - AdsorbML: A Leap in Efficiency for Adsorption Energy Calculations using
Generalizable Machine Learning Potentials [8.636519538557001]
機械学習のポテンシャルを利用して、低エネルギー吸着面の配置をより正確に、効率的に特定できることを示す。
我々のアルゴリズムは、精度と効率のトレードオフのスペクトルを提供し、1つのバランスの取れたオプションは、その時間の87.36%のエネルギー構成を見つける。
論文 参考訳(メタデータ) (2022-11-29T18:54:55Z) - Learned Force Fields Are Ready For Ground State Catalyst Discovery [60.41853574951094]
学習密度汎関数理論(DFT'')力場が基底触媒発見の準備ができていることを示す。
鍵となる発見は、学習されたポテンシャルからの力による緩和は、評価されたシステムの50%以上においてRPBE関数を用いて緩和された構造と似た、または低いエネルギーを持つ構造をもたらすことである。
対象のDFTエネルギーと同じ最小値の局所調和エネルギー表面上で訓練された力場は、50%以上のケースで低又は類似のエネルギー構造を見出すことができることを示す。
論文 参考訳(メタデータ) (2022-09-26T07:16:43Z) - Carbon Emissions and Large Neural Network Training [19.233899715628073]
我々は最近の大型モデルT5, Meena, GShard, Switch Transformer, GPT-3のエネルギー使用量と炭素フットプリントを算出する。
エネルギー効率とCO2排出量(CO2e)を改善するための次の機会を強調します。
MLの炭素フットプリントを減らすために、エネルギー使用量とCO2eはモデルを評価する上で重要な指標であるべきだと考えています。
論文 参考訳(メタデータ) (2021-04-21T04:44:25Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - The Open Catalyst 2020 (OC20) Dataset and Community Challenges [36.556154866045894]
触媒の発見と最適化は多くの社会的およびエネルギー的課題を解決する鍵となる。
表面および吸着体の元素組成を一般化できるモデルを構築することは、依然としてオープンな課題である。
論文 参考訳(メタデータ) (2020-10-20T03:29:18Z) - An Introduction to Electrocatalyst Design using Machine Learning for
Renewable Energy Storage [36.556154866045894]
再生可能エネルギーの水素やメタンへの変換は、国家規模のグリッドにスケールすることができる。
広く採用するには、このプロセスは電気化学反応の実行に対してコスト効率のよい解を必要とする。
オープンな課題は、これらの反応を高速に駆動する低コストの電気触媒を見つけることである。
機械学習の使用は、これらの計算を効率的に近似する方法を提供するかもしれない。
論文 参考訳(メタデータ) (2020-10-14T19:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。