論文の概要: Approximate t-designs in generic circuit architectures
- arxiv url: http://arxiv.org/abs/2310.19783v1
- Date: Mon, 30 Oct 2023 17:49:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:38:46.934430
- Title: Approximate t-designs in generic circuit architectures
- Title(参考訳): ジェネリック回路アーキテクチャにおける近似t設計
- Authors: Daniel Belkin, James Allen, Soumik Ghosh, Christopher Kang, Sophia
Lin, James Sud, Fred Chong, Bill Fefferman, and Bryan K. Clark
- Abstract要約: 単位的 t-設計(英: Unitary t-designs)は、第一の t モーメントが極大ランダムに現れるユニタリ群上の分布である。
これまでの研究は、あるランダム量子回路が近似t-設計をアンサンブルする深さのいくつかの上限を確立してきた。
ここでは、これらの境界はハールランダムの2つのサイトゲートの任意の固定されたアーキテクチャに拡張可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unitary t-designs are distributions on the unitary group whose first t
moments appear maximally random. Previous work has established several upper
bounds on the depths at which certain specific random quantum circuit ensembles
approximate t-designs. Here we show that these bounds can be extended to any
fixed architecture of Haar-random two-site gates. This is accomplished by
relating the spectral gaps of such architectures to those of 1D brickwork
architectures. Our bound depends on the details of the architecture only via
the typical number of layers needed for a block of the circuit to form a
connected graph over the sites. When this quantity is independent of width, the
circuit forms an approximate t-design in linear depth. We also give an implicit
bound for nondeterministic architectures in terms of properties of the
corresponding distribution over fixed architectures.
- Abstract(参考訳): ユニタリ t-デザインは、最初の t モーメントが最大ランダムに見えるユニタリ群上の分布である。
以前の研究は、特定のランダム量子回路アンサンブルがt設計を近似する深さのいくつかの上界を確立した。
ここで、これらの境界はハールランダム二箇所ゲートの任意の固定アーキテクチャに拡張可能であることを示す。
これは、そのようなアーキテクチャのスペクトルギャップと1Dブリックワークアーキテクチャのギャップを関連付けることで達成される。
我々の境界は、回路のブロックがサイト上に接続されたグラフを形成するのに必要な典型的な層数のみを通して、アーキテクチャの詳細に依存する。
この量が幅に依存しない場合、回路は線形深さで近似t設計を形成する。
また、固定アーキテクチャ上の対応する分布の性質の観点から、非決定論的アーキテクチャに暗黙的な境界を与える。
関連論文リスト
- Building a Hierarchical Architecture and Communication Model for the
Quantum Internet [7.794668853824469]
分散アーキテクチャは、量子リピータまたは専用エンタングルメント源を平らな構造に利用して、絡み合いの準備と分配を行うことが可能なソリューションの1つである。
上記の問題を解決するために,階層型量子インターネットアーキテクチャと通信モデルを設計する。
その結果,階層アーキテクチャの絡み合い分布効率は,分散アーキテクチャの平均よりも11.5%高いことがわかった。
論文 参考訳(メタデータ) (2024-02-19T03:26:32Z) - A T-depth two Toffoli gate for 2D square lattice architectures [49.88310438099143]
本稿ではトフォリゲートのクリフォード+T分解について述べる。
量子ビットの2次元正方格子上に実装するためにSWAPゲートは不要である。
この分解により、NISQとエラー修正アーキテクチャの両方において、より浅く、よりフォールトトレラントな量子計算が可能になる。
論文 参考訳(メタデータ) (2023-11-21T10:33:51Z) - Make Deep Networks Shallow Again [6.647569337929869]
余剰接続の概念によってブレークスルーが達成されている。
残差接続層のスタックはテイラー展開に類似した項の拡張として表すことができる。
言い換えれば、シーケンシャルなディープアーキテクチャは、平行な浅層アーキテクチャに置き換えられる。
論文 参考訳(メタデータ) (2023-09-15T14:18:21Z) - Exponential Separations in Symmetric Neural Networks [48.80300074254758]
我々は、対称なNetworkparencitesantoro 2017simple ArchitectureをDeepSetsparencitezaheerdeep Architectureの自然な一般化と見なしている。
解析活性化関数の制限の下で、次元が$N$の集合に作用する対称函数を$D$で構成する。
論文 参考訳(メタデータ) (2022-06-02T19:45:10Z) - Unified Field Theory for Deep and Recurrent Neural Networks [56.735884560668985]
本稿では,再帰的ネットワークと深層ネットワークの両方に対する平均場理論の統一的,体系的な導出について述べる。
平均場理論への収束は、ディープネットワークよりもリカレントネットワークの方が典型的に遅い。
提案手法はガウス過程が1/n$の体系的展開の最下位次数であることを示す。
論文 参考訳(メタデータ) (2021-12-10T15:06:11Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Inter-layer Transition in Neural Architecture Search [89.00449751022771]
本論文では、連結エッジのアーキテクチャ重み間の依存性を明示的にモデル化する。
5つのベンチマーク実験により、層間依存性のモデル化の価値を確認し、提案手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T03:33:52Z) - Stacked Boosters Network Architecture for Short Term Load Forecasting in
Buildings [0.0]
本稿では,建築エネルギー負荷の短期的負荷予測のための新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャは、単純なベースラーナーと、単一のディープニューラルネットワークとしてモデル化された複数のブースティングシステムに基づいている。
このアーキテクチャは、フィンランドのオフィスビルのエネルギーデータを用いて、短期的な負荷予測タスクで評価される。
論文 参考訳(メタデータ) (2020-01-23T08:35:36Z) - Residual Attention Net for Superior Cross-Domain Time Sequence Modeling [0.0]
本稿では新しいアーキテクチャのコンセプト実証として機能し、RANはモデルにシーケンスパターンのより高レベルな理解を提供することを目的としている。
その結果,35の最先端結果が得られたが,10の結果が現在の最先端結果と一致し,さらなるモデル微調整は行われなかった。
論文 参考訳(メタデータ) (2020-01-13T06:14:04Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。