論文の概要: Optimal Invariant Bases for Atomistic Machine Learning
- arxiv url: http://arxiv.org/abs/2503.23515v2
- Date: Thu, 03 Apr 2025 16:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:45.250171
- Title: Optimal Invariant Bases for Atomistic Machine Learning
- Title(参考訳): アトミック機械学習のための最適不変ベース
- Authors: Alice E. A. Allen, Emily Shinkle, Roxana Bujack, Nicholas Lubbers,
- Abstract要約: 多くの機械学習モデルは原子の局所環境を記述するが、その多くは不完全または機能的依存である。
我々は、パターン認識文学から既存の原子論的な表現に至るまでの技法を用いて、完全性を満たす最小の集合を生成する。
これにより、各ニューロンに最大5体パターンを認識可能な、メッセージパッシングネットワークアーキテクチャが新たに構築されることを示す。
- 参考スコア(独自算出の注目度): 1.8849301976115886
- License:
- Abstract: The representation of atomic configurations for machine learning models has led to the development of numerous descriptors, often to describe the local environment of atoms. However, many of these representations are incomplete and/or functionally dependent. Incomplete descriptor sets are unable to represent all meaningful changes in the atomic environment. Complete constructions of atomic environment descriptors, on the other hand, often suffer from a high degree of functional dependence, where some descriptors can be written as functions of the others. These redundant descriptors do not provide additional power to discriminate between different atomic environments and increase the computational burden. By employing techniques from the pattern recognition literature to existing atomistic representations, we remove descriptors that are functions of other descriptors to produce the smallest possible set that satisfies completeness. We apply this in two ways: first we refine an existing description, the Atomistic Cluster Expansion. We show that this yields a more efficient subset of descriptors. Second, we augment an incomplete construction based on a scalar neural network, yielding a new message-passing network architecture that can recognize up to 5-body patterns in each neuron by taking advantage of an optimal set of Cartesian tensor invariants. This architecture shows strong accuracy on state-of-the-art benchmarks while retaining low computational cost. Our results not only yield improved models, but point the way to classes of invariant bases that minimize cost while maximizing expressivity for a host of applications.
- Abstract(参考訳): 機械学習モデルのための原子構成の表現は、しばしば原子の局所環境を記述するために多くの記述子の開発につながった。
しかし、これらの表現の多くは不完全で機能的依存である。
不完全な記述子集合は、原子環境におけるすべての意味のある変化を表現できない。
一方、原子環境記述子の完全な構成は、しばしば高い機能依存に悩まされ、一部の記述子は、他の記述子の関数として記述できる。
これらの冗長な記述子は、異なる原子環境を識別し、計算負荷を増大させる追加の力を提供しない。
パターン認識の文献から既存の原子論的な表現にテクニックを取り入れることで、他の記述子の関数である記述子を取り除き、完全性を満たす最小の集合を生成する。
まず、既存の記述であるAtomistic Cluster Expansionを洗練します。
これにより、より効率的な記述子のサブセットが得られることを示す。
第二に、スカラーニューラルネットワークに基づく不完全構築を増強し、カルトテンソル不変量の最適セットを活用することにより、各ニューロンの最大5体パターンを認識可能な新しいメッセージパッシングネットワークアーキテクチャを実現する。
このアーキテクチャは、計算コストを低く保ちながら最先端のベンチマークに強い精度を示す。
我々の結果は、改良されたモデルを得るだけでなく、多くのアプリケーションに対する表現率を最大化しながら、コストを最小限に抑える不変基底のクラスへの道を指し示します。
関連論文リスト
- LATTE: an atomic environment descriptor based on Cartesian tensor contractions [3.2771631221674333]
本稿では,原子間ポテンシャル構築のための機械学習モデルと組み合わせて,局所的な原子環境のための新しい記述子を提案する。
局所原子訓練可能拡張(LATTE)は、学習可能なパラメータを持つ多体項の可変数の効率的な構成を可能にする。
我々は、この新しい記述子を、いくつかのシステム上の既存の記述子と比較し、スペクトルの一方の端で非常に高速なポテンシャルと競合し、最先端の精度を示す。
論文 参考訳(メタデータ) (2024-05-13T19:31:00Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Towards Practical Explainability with Cluster Descriptors [3.899688920770429]
本稿では,クラスタ記述子を解析することにより,クラスタをより説明しやすいものにすることの課題について検討する。
目標は、クラスタディスクリプタと呼ばれる各クラスタの代表的なタグセットを見つけることだ。
本稿では,説明可能性に寄与せず,クラスタを十分に区別しないタグが最適記述子に追加されないような,従来のモデルを強化する新しい説明可能性モデルを提案する。
論文 参考訳(メタデータ) (2022-10-18T01:53:43Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Scalable Interpretability via Polynomials [33.51591891812176]
GAM(Generalized Additive Models)は、完全に解釈可能な機械学習の主要な選択肢である。
DNNのような解釈不能な方法とは異なり、パワーとスケーラビリティに欠けており、現実のタスクでは実現不可能な代替手段である。
我々は、モデルのテンソル分解を用いて、強力な$textitfully-prepretable$高次相互作用を学習する新しいクラスのGAMを提案する。
論文 参考訳(メタデータ) (2022-05-27T17:19:05Z) - The Design Space of E(3)-Equivariant Atom-Centered Interatomic
Potentials [3.864610688022996]
NequIPは、最先端の精度を示す同変特徴を持つメッセージパッシングニューラルネットワークである。
これらのモデルを統一する数学的枠組みを構築する。
我々は、NequIPの非常に単純化されたバージョンであるBOTNetを紹介し、それは解釈可能なアーキテクチャを持ち、ベンチマークデータセットの精度を維持する。
論文 参考訳(メタデータ) (2022-05-13T13:47:12Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Discontinuous Constituent Parsing with Pointer Networks [0.34376560669160383]
不連続な構成木は、ドイツ語のような言語の文法的な現象を表現するのに不可欠である。
係り受け解析の最近の進歩は、ポインタネットワークが文中の単語間の構文関係を効率的に解析することに優れていることを示している。
本稿では,最も正確な不連続な構成表現を生成するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-05T15:12:03Z) - MGCN: Descriptor Learning using Multiscale GCNs [50.14172863706108]
グラフウェーブレットを用いて表面上のディリクレエネルギーを分解する新しい非学習的特徴を示す。
また,新たなグラフ畳み込みネットワーク (MGCN) を提案し,非学習的特徴をより差別的な記述子に変換する。
論文 参考訳(メタデータ) (2020-01-28T17:25:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。