論文の概要: Unitary network: Tensor network unitaries with local unitarity
- arxiv url: http://arxiv.org/abs/2508.16890v1
- Date: Sat, 23 Aug 2025 03:35:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.239737
- Title: Unitary network: Tensor network unitaries with local unitarity
- Title(参考訳): ユニタリーネットワーク:ローカルユニタリティを持つテンソルネットワークユニタリー
- Authors: Wenqing Xie, Seishiro Ono, Hoi Chun Po,
- Abstract要約: テンソルネットワークユニタリのための指向アーキテクチャであるユニタリネットワークを導入する。
一元ネットワークのクラスは、指数的に抑制されたテールまで局所性を保持するグローバルなユニタリを含むことを示す。
また、単一ネットワークにおける情報フローは、量子セルオートマトンに対する既知の指標と一致するフローインデックスによって特徴付けられることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce unitary network, an oriented architecture for tensor network unitaries. Compared to existing architectures, in a unitary network each local tensor is required to be a unitary matrix upon suitable reshaping. Global unitarity is ensured when the network obeys a suitable ordering property. Unitary operators represented by unitary networks need not preserve locality. In particular, we show that the class of unitary networks encompasses global unitaries which preserve locality up to exponentially suppressed tails, as in those that naturally arise from the finite-time evolution of local Hamiltonians. Non-invertible symmetries, as exemplified by the non-local Kramers-Wannier duality in one dimension, can also be represented using unitary networks. We also show that information flow in a unitary network can be characterized by a flow index, which matches the known index for quantum cellular automata as a special case.
- Abstract(参考訳): テンソルネットワークユニタリのための指向アーキテクチャであるユニタリネットワークを導入する。
既存のアーキテクチャと比較して、ユニタリネットワークでは、各局所テンソルは適切なリフォームを行う際に、ユニタリ行列であることが要求される。
ネットワークが適切な順序付けプロパティに従うと、グローバルなユニタリティが保証される。
ユニタリネットワークで表されるユニタリ演算子は、局所性を保持する必要はない。
特に、ユニタリネットワークのクラスは局所性を保持する大域的ユニタリを包含し、指数的に抑制された尾部(例えば、局所ハミルトンの有限時間進化から自然に生じるもの)を包含することを示す。
非可逆対称性は、一次元における非局所クラマース=ワニエ双対性によって例示されるように、ユニタリネットワークを用いて表すこともできる。
また、単一ネットワークにおける情報フローは、量子セルオートマトンに対する既知の指標と一致するフローインデックスによって特徴付けられることを示す。
関連論文リスト
- Generalization emerges from local optimization in a self-organized learning network [0.0]
我々は,グローバルなエラー関数に頼ることなく,局所最適化ルールのみによって駆動される,教師付き学習ネットワーク構築のための新しいパラダイムを設計・分析する。
我々のネットワークは、ルックアップテーブルの形で、ノードに新しい知識を正確かつ瞬時に保存する。
本稿では,学習例数が十分に大きくなると,アルゴリズムによって生成されたネットワークが完全な一般化状態に体系的に到達する,分類タスクの多くの例を示す。
我々は状態変化のダイナミクスについて報告し、それが突然であり、従来の学習ネットワークですでに観察されている現象である1次相転移の特徴を持つことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:32:08Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Inversion of Bayesian Networks [0.0]
本研究では,認識ネットワークに必要な十分な特性について検討し,真の後部分布を正確にモデル化する。
局所的な条件では、プロパティ完全性(すべてのノード、すべての親が参加する)が重要な役割を果たす。
論文 参考訳(メタデータ) (2022-12-20T20:56:18Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Implicit Regularization in Hierarchical Tensor Factorization and Deep
Convolutional Neural Networks [18.377136391055327]
本稿では,階層的テンソル分解における暗黙の正規化を理論的に解析する。
これは、関連する畳み込みネットワークの局所性に対する暗黙の正規化に変換される。
我々の研究は、暗黙の正規化の理論解析を通じてニューラルネットワークを強化する可能性を強調している。
論文 参考訳(メタデータ) (2022-01-27T18:48:30Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Full network nonlocality [68.8204255655161]
ネットワーク内のすべてのリンクが非ローカルリソースを分散するために必要となる相関関係を記述した完全ネットワーク非ローカル性の概念を導入する。
最もよく知られているネットワークベル試験では,ネットワークの非局所性は見られていない。
より一般に、ネットワーク内の局所的および理論に依存しない相関を解析するための確立された手法は、完全なネットワーク非局所性のための十分な条件を導出するために組み合わせることができると指摘する。
論文 参考訳(メタデータ) (2021-05-19T18:00:02Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。