論文の概要: PANNA 2.0: Efficient neural network interatomic potentials and new
architectures
- arxiv url: http://arxiv.org/abs/2305.11805v1
- Date: Fri, 19 May 2023 16:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 13:31:10.551486
- Title: PANNA 2.0: Efficient neural network interatomic potentials and new
architectures
- Title(参考訳): PANNA 2.0: 効率的なニューラルネットワーク間ポテンシャルと新しいアーキテクチャ
- Authors: Franco Pellegrini, Ruggero Lot, Yusuf Shaidu, Emine K\"u\c{c}\"ukbenli
- Abstract要約: PANNAは、局所的な原子記述子と多層パーセプトロンに基づくニューラルネットワーク間ポテンシャルの生成のためのコードである。
PANNAの新リリースには、ネットワークトレーニングのカスタマイズと監視のためのツールの改善、GPUサポートの改善、長距離静電相互作用を含むための新しいアーキテクチャが含まれている。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the latest release of PANNA 2.0 (Properties from Artificial Neural
Network Architectures), a code for the generation of neural network interatomic
potentials based on local atomic descriptors and multilayer perceptrons. Built
on a new back end, this new release of PANNA features improved tools for
customizing and monitoring network training, better GPU support including a
fast descriptor calculator, new plugins for external codes and a new
architecture for the inclusion of long-range electrostatic interactions through
a variational charge equilibration scheme. We present an overview of the main
features of the new code, and several benchmarks comparing the accuracy of
PANNA models to the state of the art, on commonly used benchmarks as well as
richer datasets.
- Abstract(参考訳): 本稿では,ローカル原子ディスクリプタと多層パーセプトロンに基づくニューラルネットワーク間ポテンシャル生成のためのコードであるPANNA 2.0(Properties from Artificial Neural Network Architectures)の最新リリースを紹介する。
新しいバックエンド上に構築されたPANNAの新リリースは、ネットワークトレーニングのカスタマイズと監視のためのツールの改善、高速なディスクリプタ電卓を含むGPUサポート、外部コード用のプラグイン、変動電荷平衡スキームによる長距離静電相互作用の導入のための新しいアーキテクチャを備えている。
本稿では、新しいコードの主な特徴の概要と、PANNAモデルの精度と技術の現状を比較したいくつかのベンチマークについて、一般的なベンチマークとよりリッチなデータセットで紹介する。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Spline-based neural network interatomic potentials: blending classical
and machine learning models [0.0]
本稿では,スプラインベースMEAMポテンシャルの単純さとニューラルネットワークアーキテクチャの柔軟性を融合したMLIPフレームワークを提案する。
我々は,このフレームワークを用いて,古典的IPとMLIPの境界を探索する方法を実証する。
論文 参考訳(メタデータ) (2023-10-04T15:42:26Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - HAC-Net: A Hybrid Attention-Based Convolutional Neural Network for
Highly Accurate Protein-Ligand Binding Affinity Prediction [0.0]
本稿では,3次元畳み込みニューラルネットワークと2つのグラフ畳み込みニューラルネットワークからなる新しいディープラーニングアーキテクチャを提案する。
HAC-NetはPDBbind v.2016コアセットの最先端結果を取得する。
我々は,このモデルを,構造に基づく生体分子特性予測に関連する幅広い教師付き学習問題に拡張できると考えている。
論文 参考訳(メタデータ) (2022-12-23T16:14:53Z) - GENNAPE: Towards Generalized Neural Architecture Performance Estimators [25.877126553261434]
GENNAPEは、与えられたニューラルネットワークを、原子操作の計算グラフ(CG)として表現する。
最初に、トポロジ的特徴によるネットワーク分離を促進するために、Contrastive Learningを介してグラフエンコーダを学習する。
実験により、NAS-Bench-101で事前訓練されたGENNAPEは、5つの異なる公開ニューラルネットワークベンチマークに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2022-11-30T18:27:41Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - FastONN -- Python based open-source GPU implementation for Operational
Neural Networks [25.838282412957675]
この作業では、オペレーショナルニューラルネットワークをトレーニングするための高速GPU対応ライブラリであるFastONNが導入されている。
FastONNは、オペレーショナルニューロンの新しいベクトル化された定式化に基づいている。
バンドルされた補助モジュールは、さまざまなデータパーティションとカスタマイズされたメトリクスにわたるパフォーマンストラッキングとチェックポイントのためのインターフェースを提供する。
論文 参考訳(メタデータ) (2020-06-03T13:33:35Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。