論文の概要: LATTE: an atomic environment descriptor based on Cartesian tensor contractions
- arxiv url: http://arxiv.org/abs/2405.08137v1
- Date: Mon, 13 May 2024 19:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 15:47:11.122427
- Title: LATTE: an atomic environment descriptor based on Cartesian tensor contractions
- Title(参考訳): LATTE:カルトテンソル収縮に基づく原子環境記述子
- Authors: Franco Pellegrini, Stefano de Gironcoli, Emine Küçükbenli,
- Abstract要約: 本稿では,原子間ポテンシャル構築のための機械学習モデルと組み合わせて,局所的な原子環境のための新しい記述子を提案する。
局所原子訓練可能拡張(LATTE)は、学習可能なパラメータを持つ多体項の可変数の効率的な構成を可能にする。
我々は、この新しい記述子を、いくつかのシステム上の既存の記述子と比較し、スペクトルの一方の端で非常に高速なポテンシャルと競合し、最先端の精度を示す。
- 参考スコア(独自算出の注目度): 3.2771631221674333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new descriptor for local atomic environments, to be used in combination with machine learning models for the construction of interatomic potentials. The Local Atomic Tensors Trainable Expansion (LATTE) allows for the efficient construction of a variable number of many-body terms with learnable parameters, resulting in a descriptor that is efficient, expressive, and can be scaled to suit different accuracy and computational cost requirements. We compare this new descriptor to existing ones on several systems, showing it to be competitive with very fast potentials at one end of the spectrum, and extensible to an accuracy close to the state of the art.
- Abstract(参考訳): 本稿では,原子間ポテンシャル構築のための機械学習モデルと組み合わせて,局所的な原子環境のための新しい記述子を提案する。
Local Atomic Tensors Trainable Expansion (LATTE)は、学習可能なパラメータを持つ多体項の可変数の効率的な構成を可能にする。
我々は、この新しい記述子を、いくつかのシステム上の既存の記述子と比較し、スペクトルの一方の端で非常に高速なポテンシャルと競合し、最先端に近い精度で拡張可能であることを示した。
関連論文リスト
- Cartesian atomic cluster expansion for machine learning interatomic potentials [0.0]
機械学習の原子間ポテンシャルは、物質科学と化学における原子モデルに革命をもたらしている。
本稿では, 高い精度, 安定性, 一般化性を示す, カルテシアン配位子に基づく原子密度展開を提案する。
バルク水, 小分子および25元素高エントロピー合金を含む多種多様なシステムにおいて, その性能を検証した。
論文 参考訳(メタデータ) (2024-02-12T08:17:23Z) - 19 Parameters Is All You Need: Tiny Neural Networks for Particle Physics [52.42485649300583]
本稿では,ローレンツ型および置換対称型アーキテクチャPELICANの低遅延ニューラルネットワークへの応用の可能性を示す。
トップクォークジェットタグのバイナリ分類タスクと比較すると,最大19のトレーニング可能なパラメータで,数万のパラメータでジェネリックアーキテクチャを上回る性能を示す。
論文 参考訳(メタデータ) (2023-10-24T18:51:22Z) - Tractable Bounding of Counterfactual Queries by Knowledge Compilation [51.47174989680976]
本稿では, パール構造因果モデルにおいて, 因果関係などの部分的特定可能なクエリのバウンダリングの問題について議論する。
最近提案された反復EMスキームは初期化パラメータをサンプリングしてそれらの境界を内部近似する。
シンボルパラメータを実際の値に置き換えた回路構造を,単一のシンボル知識コンパイルによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T07:10:40Z) - Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Atomistic structure search using local surrogate mode [0.0]
本稿では,グローバルな構造探索手法と組み合わせた局所代理モデルについて述べる。
このモデルはAtomistic Global Optimization Xフレームワークで実装されている。
分子、ナノ粒子、表面支持クラスター、表面薄膜を含む幅広い原子系に対して堅牢であることが示されている。
論文 参考訳(メタデータ) (2022-08-19T11:40:05Z) - The Design Space of E(3)-Equivariant Atom-Centered Interatomic
Potentials [3.864610688022996]
NequIPは、最先端の精度を示す同変特徴を持つメッセージパッシングニューラルネットワークである。
これらのモデルを統一する数学的枠組みを構築する。
我々は、NequIPの非常に単純化されたバージョンであるBOTNetを紹介し、それは解釈可能なアーキテクチャを持ち、ベンチマークデータセットの精度を維持する。
論文 参考訳(メタデータ) (2022-05-13T13:47:12Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - Automatic Mixed-Precision Quantization Search of BERT [62.65905462141319]
BERTのような事前訓練された言語モデルは、様々な自然言語処理タスクにおいて顕著な効果を示している。
これらのモデルは通常、数百万のパラメータを含んでおり、リソースに制約のあるデバイスへの実践的なデプロイを妨げている。
本稿では,サブグループレベルでの量子化とプルーニングを同時に行うことができるBERT用に設計された混合精密量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-30T06:32:47Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - Adaptive Semiparametric Language Models [17.53604394786977]
本稿では,大規模パラメトリックニューラルネットワーク(トランスフォーマー)と非パラメトリックエピソードメモリコンポーネントを組み合わせた言語モデルを提案する。
単語ベースおよび文字ベース言語モデリングデータセットの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-02-04T11:47:03Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。