論文の概要: Better, Faster Fermionic Neural Networks
- arxiv url: http://arxiv.org/abs/2011.07125v1
- Date: Fri, 13 Nov 2020 20:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:54:27.046067
- Title: Better, Faster Fermionic Neural Networks
- Title(参考訳): 高速で高速なフェルミオン型ニューラルネットワーク
- Authors: James S. Spencer, David Pfau, Aleksandar Botev, W. M. C. Foulkes
- Abstract要約: 我々はFermiNetにいくつかの改良を加えて、挑戦するシステムのスピードと精度のために新しいレコードを設定できるようにした。
ネットワークのサイズが大きくなると、アルゴンほどの大きさの原子の化学的精度に達するのに十分であることがわかった。
これにより、ビシクロブタンからブタジエンへの挑戦的な遷移においてFermiNetを実行し、シクロブタジエンの自己結合においてパウリネットと比較することができる。
- 参考スコア(独自算出の注目度): 68.61120920231944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Fermionic Neural Network (FermiNet) is a recently-developed neural
network architecture that can be used as a wavefunction Ansatz for
many-electron systems, and has already demonstrated high accuracy on small
systems. Here we present several improvements to the FermiNet that allow us to
set new records for speed and accuracy on challenging systems. We find that
increasing the size of the network is sufficient to reach chemical accuracy on
atoms as large as argon. Through a combination of implementing FermiNet in JAX
and simplifying several parts of the network, we are able to reduce the number
of GPU hours needed to train the FermiNet on large systems by an order of
magnitude. This enables us to run the FermiNet on the challenging transition of
bicyclobutane to butadiene and compare against the PauliNet on the
automerization of cyclobutadiene, and we achieve results near the state of the
art for both.
- Abstract(参考訳): fermionic neural network (ferminet) は、多電子系の波動関数 ansatz として使用可能な、最近開発されたニューラルネットワークアーキテクチャである。
ここでは,挑戦的なシステムにおいて,速度と精度の新たな記録を設定可能なferminetの改良をいくつか紹介する。
ネットワークのサイズが大きくなると、アルゴンほどの大きさの原子の化学的精度に達するのに十分であることがわかった。
JAXでFermiNetを実装し、ネットワークのいくつかの部分を単純化することで、大規模なシステム上でFermiNetをトレーニングするのに必要なGPU時間を、桁違いに削減することができる。
これにより, ビシクロブタンからブタジエンへの困難な遷移に関するフェルミネットの実行と, シクロブタジエンの自己合成に関するポーリネットとの比較が可能となり, 両者の芸術状態に近い結果が得られる。
関連論文リスト
- Open-Source Fermionic Neural Networks with Ionic Charge Initialization [0.0]
私たちはFermiNetモデルを標準で広く使われているオープンソースライブラリであるDeepChemに統合します。
イオンの過剰な電子の割り当てや不足に伴う困難を克服する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-16T08:51:58Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Neural Wave Functions for Superfluids [3.440236962613469]
超流動基底状態を持つことが知られている強い短距離二体相互作用を持つ系である一元性フェルミガスについて検討する。
我々は最近開発されたフェルミオン型ニューラルネットワーク(FermiNet)波動関数Ansatzを用いてモンテカルロの変分計算を行った。
論文 参考訳(メタデータ) (2023-05-11T17:23:29Z) - MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - Graph Neural Networks for Power Allocation in Wireless Networks with
Full Duplex Nodes [10.150768420975155]
ユーザ間の相互干渉のため、無線ネットワークにおける電力割り当て問題はしばしば自明ではない。
グラフグラフニューラルネットワーク(GNN)は、これらの問題に対処するための有望なアプローチとして最近登場し、無線ネットワークの基盤となるトポロジを活用するアプローチである。
論文 参考訳(メタデータ) (2023-03-27T10:59:09Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - SparseDNN: Fast Sparse Deep Learning Inference on CPUs [1.6244541005112747]
CPUをターゲットとしたスパースディープラーニング推論エンジンであるSparseDNNを紹介します。
我々のスパースコードジェネレータは,最先端のスパースライブラリや高密度ライブラリよりも大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2021-01-20T03:27:35Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。