論文の概要: Neural tensor contractions and the expressive power of deep neural
quantum states
- arxiv url: http://arxiv.org/abs/2103.10293v1
- Date: Thu, 18 Mar 2021 14:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 13:49:27.087640
- Title: Neural tensor contractions and the expressive power of deep neural
quantum states
- Title(参考訳): 神経テンソルの収縮とディープニューラル量子状態の表現力
- Authors: Or Sharir, Amnon Shashua and Giuseppe Carleo
- Abstract要約: 一般的なテンソルネットワークとディープフィードフォワード人工ニューラルネットワークの直接接続を確立します。
ニューラルネットワーク状態は、実際に使用可能な変分テンソルネットワークよりも厳密に同じまたは高い表現力を有することを示す。
- 参考スコア(独自算出の注目度): 17.181118551107453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We establish a direct connection between general tensor networks and deep
feed-forward artificial neural networks. The core of our results is the
construction of neural-network layers that efficiently perform tensor
contractions, and that use commonly adopted non-linear activation functions.
The resulting deep networks feature a number of edges that closely matches the
contraction complexity of the tensor networks to be approximated. In the
context of many-body quantum states, this result establishes that
neural-network states have strictly the same or higher expressive power than
practically usable variational tensor networks. As an example, we show that all
matrix product states can be efficiently written as neural-network states with
a number of edges polynomial in the bond dimension and depth logarithmic in the
system size. The opposite instead does not hold true, and our results imply
that there exist quantum states that are not efficiently expressible in terms
of matrix product states or practically usable PEPS, but that are instead
efficiently expressible with neural network states.
- Abstract(参考訳): 一般的なテンソルネットワークとディープフィードフォワード人工ニューラルネットワークとの直接接続を確立する。
この結果の核心は、テンソル収縮を効率的に行うニューラルネットワーク層の構築であり、一般的な非線形活性化関数を用いている。
結果として生じるディープネットワークは、近似されるテンソルネットワークの収縮複雑性と密接に一致する多くのエッジを備えている。
この結果は、多体量子状態の文脈において、ニューラルネットワーク状態が実際に使用可能な変分テンソルネットワークよりも厳密に同じまたは高い表現力を持つことを示す。
例えば、全ての行列積状態は、結合次元における多くの辺多項式と系サイズにおける深さ対数を持つニューラルネットワーク状態として効率的に書けることを示す。
逆は真ではなく、我々の結果は、行列積状態や実際使用可能なPEPSで効率的に表現できない量子状態が存在するが、代わりにニューラルネットワーク状態で効率よく表現できる量子状態が存在することを示唆している。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Towards Efficient Verification of Quantized Neural Networks [9.352320240912109]
量子化は、深層ニューラルネットワークモデルにおける浮動小数点演算を整数演算に置き換える。
本研究では,勾配に基づく探索手法と有界伝播手法を用いて,効率を向上できることを示す。
論文 参考訳(メタデータ) (2023-12-20T00:43:13Z) - Entanglement transition in deep neural quantum states [0.0]
深部ニューラルネットワークにおける情報伝達が深部神経量子状態の物理的絡み合い特性にどのように影響するかを示す。
このブリッジにより、領域と体積法が絡み合った状態を表すために最適な神経量子状態ハイパーパラメーターレギュレーションを特定できる。
正確な量子状態表現のためのネットワーク構成の理解の進歩は、容積法則量子状態を扱う効果的な表現を開発するのに役立ちます。
論文 参考訳(メタデータ) (2023-12-19T08:40:23Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Tensor Network States with Low-Rank Tensors [6.385624548310884]
テンソルネットワークを構成するテンソルに低ランク制約を課すという考え方を導入する。
この修正により、ネットワーク最適化の時間と複雑さを大幅に削減できる。
テンソル階数 $r$ を$m$ の順序で選ぶことは、高い精度の基底状態近似を得るのに十分である。
論文 参考訳(メタデータ) (2022-05-30T17:58:16Z) - Fourier Neural Networks for Function Approximation [2.840363325289377]
ニューラルネットワークが普遍近似器であることは広く証明されている。
特に、狭いニューラルネットワークが、ディープニューラルネットワークによって実装されている関数を近似するために、ネットワークは指数関数的に多数のニューロンを取ることが証明されている。
論文 参考訳(メタデータ) (2021-10-21T09:30:26Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。