論文の概要: Efficient and Equivariant Graph Networks for Predicting Quantum
Hamiltonian
- arxiv url: http://arxiv.org/abs/2306.04922v2
- Date: Wed, 8 Nov 2023 17:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 19:36:35.049062
- Title: Efficient and Equivariant Graph Networks for Predicting Quantum
Hamiltonian
- Title(参考訳): 量子ハミルトニアン予測のための効率的かつ等価なグラフネットワーク
- Authors: Haiyang Yu, Zhao Xu, Xiaofeng Qian, Xiaoning Qian, Shuiwang Ji
- Abstract要約: 本稿では,効率と等価性を実現するSE(3)-equivariant Network,QHNetを提案する。
我々の重要な進歩はQHNetアーキテクチャの革新的な設計であり、基礎となる対称性に従うだけでなく、テンソル製品の数を92%削減できる。
実験結果から,我々のQHNetは最先端の手法に匹敵する性能を極めて高速に達成できることが示された。
- 参考スコア(独自算出の注目度): 72.57870177599492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the prediction of the Hamiltonian matrix, which finds use in
quantum chemistry and condensed matter physics. Efficiency and equivariance are
two important, but conflicting factors. In this work, we propose a
SE(3)-equivariant network, named QHNet, that achieves efficiency and
equivariance. Our key advance lies at the innovative design of QHNet
architecture, which not only obeys the underlying symmetries, but also enables
the reduction of number of tensor products by 92\%. In addition, QHNet prevents
the exponential growth of channel dimension when more atom types are involved.
We perform experiments on MD17 datasets, including four molecular systems.
Experimental results show that our QHNet can achieve comparable performance to
the state of the art methods at a significantly faster speed. Besides, our
QHNet consumes 50\% less memory due to its streamlined architecture. Our code
is publicly available as part of the AIRS library
(\url{https://github.com/divelab/AIRS}).
- Abstract(参考訳): 量子化学や凝縮体物理学で用いられるハミルトニアン行列の予測について考察する。
効率と等価性は重要だが、相反する要素がある。
本研究では,効率と等価性を実現するSE(3)-同変ネットワークQHNetを提案する。
我々のキーとなる進歩はQHNetアーキテクチャの革新的な設計であり、基礎となる対称性に従うだけでなく、テンソル製品の数を92%削減できる。
さらに、QHNetは、より多くの原子タイプが関与する場合、チャネル次元の指数的な成長を防ぐ。
4つの分子系を含むMD17データセットで実験を行った。
実験の結果,我々のQHNetは最先端の手法と同等の性能を極めて高速に達成できることがわかった。
さらに、当社のQHNetは、その合理化アーキテクチャのため、メモリ消費量を50%削減しています。
私たちのコードはAIRSライブラリ(\url{https://github.com/divelab/AIRS})の一部として公開されています。
関連論文リスト
- Quantum Deep Equilibrium Models [1.5853439776721878]
本稿では,量子機械学習モデルのパラメータを学習するトレーニングパラダイムであるQuantum Deep Equilibrium Models (QDEQ)を紹介する。
QDEQは、既存の同等のベースラインモデルと競合するだけでなく、5倍以上のレイヤを持つネットワークよりも高いパフォーマンスを実現している。
このことは、QDEQパラダイムが与えられたタスクに対してより浅い量子回路を開発するのに利用できることを示している。
論文 参考訳(メタデータ) (2024-10-31T13:54:37Z) - GHN-Q: Parameter Prediction for Unseen Quantized Convolutional
Architectures via Graph Hypernetworks [80.29667394618625]
我々は,未知の量子化CNNアーキテクチャのパラメータの予測にグラフハイパーネットを用いることを初めて検討した。
我々は、CNNの探索空間の縮小に着目し、GHN-Qが実際に8ビットの量子化されたCNNの量子化-ロバストパラメータを予測できることを見出した。
論文 参考訳(メタデータ) (2022-08-26T08:00:02Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - A Co-Design Framework of Neural Networks and Quantum Circuits Towards
Quantum Advantage [37.837850621536475]
本稿では、そのような欠落したリンクを提供するために、共同設計フレームワークであるQuantumFlowを紹介します。
QuantumFlowは、新しい量子フレンドリなニューラルネットワーク(QF-Nets)、QF-Netのための量子回路(QF-Circ)を生成するマッピングツール(QF-Maps)、実行エンジン(QF-FB)で構成される。
評価の結果、QF-pNetとQF-hNetはそれぞれ97.10%と98.27%の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2020-06-26T06:25:03Z) - Propagating Asymptotic-Estimated Gradients for Low Bitwidth Quantized
Neural Networks [31.168156284218746]
本稿では,AQE(Asymptotic-Quantized Estimator)を提案する。
訓練の終わりに、重量とアクティベーションは低精度に定量化されている。
推論フェーズでは、畳み込み操作の代わりにXNORまたはShiFT操作を使用してMINW-Netを高速化する。
論文 参考訳(メタデータ) (2020-03-04T03:17:47Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。