論文の概要: AlphaNet: Scaling Up Local Frame-based Atomistic Foundation Model
- arxiv url: http://arxiv.org/abs/2501.07155v1
- Date: Mon, 13 Jan 2025 09:28:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:23:01.729632
- Title: AlphaNet: Scaling Up Local Frame-based Atomistic Foundation Model
- Title(参考訳): AlphaNet: ローカルフレームベースのAtomistic Foundationモデルのスケールアップ
- Authors: Bangchen Yin, Jiaao Wang, Weitao Du, Pengbo Wang, Penghua Ying, Haojun Jia, Zisheng Zhang, Yuanqi Du, Carla P. Gomes, Chenru Duan, Hai Xiao, Graeme Henkelman,
- Abstract要約: 我々は,原子系の高精度かつ効率的なシミュレーションを実現するための,局所的フレームベース同変モデルであるAlphaNetを提案する。
欠陥グラフェン, フォルメート分解, ゼオライト, 表面反応など, さまざまなデータセットでAlphaNetの有効性を検証した。
- 参考スコア(独自算出の注目度): 24.9325296129376
- License:
- Abstract: We present AlphaNet, a local frame-based equivariant model designed to achieve both accurate and efficient simulations for atomistic systems. Recently, machine learning force fields (MLFFs) have gained prominence in molecular dynamics simulations due to their advantageous efficiency-accuracy balance compared to classical force fields and quantum mechanical calculations, alongside their transferability across various systems. Despite the advancements in improving model accuracy, the efficiency and scalability of MLFFs remain significant obstacles in practical applications. AlphaNet enhances computational efficiency and accuracy by leveraging the local geometric structures of atomic environments through the construction of equivariant local frames and learnable frame transitions. We substantiate the efficacy of AlphaNet across diverse datasets, including defected graphene, formate decomposition, zeolites, and surface reactions. AlphaNet consistently surpasses well-established models, such as NequIP and DeepPot, in terms of both energy and force prediction accuracy. Notably, AlphaNet offers one of the best trade-offs between computational efficiency and accuracy among existing models. Moreover, AlphaNet exhibits scalability across a broad spectrum of system and dataset sizes, affirming its versatility.
- Abstract(参考訳): 我々は,原子系の高精度かつ効率的なシミュレーションを実現するために,局所的なフレームベース同変モデルであるAlphaNetを提案する。
近年、機械学習力場(MLFF)は、古典的な力場や量子力学計算と比較して、効率と精度のバランスが有利であることから、分子動力学シミュレーションにおいて注目されている。
モデル精度の向上にもかかわらず、MLFFの効率性とスケーラビリティは、実用上重要な障害である。
AlphaNetは、等変局所フレームの構築と学習可能なフレーム遷移によって、原子環境の局所幾何学構造を活用することにより、計算効率と精度を向上させる。
欠陥グラフェン, フォルメート分解, ゼオライト, 表面反応など, さまざまなデータセットでAlphaNetの有効性を検証した。
AlphaNetは、NequIPやDeepPotのような確立したモデルを、エネルギーと力の予測精度の両方で一貫して上回っている。
特にAlphaNetは、計算効率と既存のモデル間の精度の最良のトレードオフの1つを提供している。
さらにAlphaNetは、幅広いシステムとデータセットサイズにわたるスケーラビリティを示し、その汎用性を確認している。
関連論文リスト
- Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - Materials Learning Algorithms (MALA): Scalable Machine Learning for Electronic Structure Calculations in Large-Scale Atomistic Simulations [2.04071520659173]
本稿では,大規模原子論シミュレーションに適したスケーラブルな機械学習フレームワークであるMaterial Learning Algorithms (MALA)パッケージを提案する。
MALAモデルは、状態の局所密度、電子密度、状態の密度、総エネルギーを含む重要な電子観測物を効率的に予測する。
我々は, ホウ素クラスター, 固液相境界を横切るアルミニウム, 大型ベリリウムスラブの積層断層の電子構造を予測した例でMALAの機能を示す。
論文 参考訳(メタデータ) (2024-11-29T11:10:29Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution [6.857919231112562]
ウィンドウベーストランスは超高解像度タスクにおいて優れた性能を示した。
畳み込みニューラルネットワークよりも計算複雑性と推論レイテンシが高い。
線形適応ミキサーネットワーク(LAMNet)という,畳み込みに基づくトランスフォーマーフレームワークを構築する。
論文 参考訳(メタデータ) (2024-09-26T07:24:09Z) - Compact Multi-Threshold Quantum Information Driven Ansatz For Strongly Interactive Lattice Spin Models [0.0]
近似量子相互情報(QMI)に基づくアンザッツ建築の体系的手順を提案する。
提案手法は,QMI値に基づいて各層の量子ビット対が選択される層状アンサッツを生成し,より効率的な状態生成と最適化ルーチンを実現する。
その結果,Multi-QIDA法は高い精度を維持しながら計算複雑性を低減し,格子スピンモデルにおける量子シミュレーションに有望なツールであることがわかった。
論文 参考訳(メタデータ) (2024-08-05T17:07:08Z) - Multivariate Physics-Informed Convolutional Autoencoder for Anomaly Detection in Power Distribution Systems with High Penetration of DERs [0.0]
本稿では,物理インフォームド・コンボリューション・オートエンコーダ(PIConvAE)モデルを提案する。
提案モデルの性能評価は,カリフォルニア州リバーサイドのIEEE 123バスシステムと実世界の給電システムを用いて行った。
論文 参考訳(メタデータ) (2024-06-05T04:28:57Z) - EL-MLFFs: Ensemble Learning of Machine Leaning Force Fields [1.8367772188990783]
機械学習力場(MLFF)は、量子力学的手法の精度を橋渡しするための有望なアプローチとして登場した。
本稿では,多種多様なMLFFからの予測を統合するため,階層化手法を利用した新しいアンサンブル学習フレームワークEL-MLFFを提案する。
我々は,Cu(100)表面に吸着したメタン分子とメタノールの2つの異なるデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-03-26T09:09:40Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。