論文の概要: Scalable Quantum Networks: Congestion-Free Hierarchical Entanglement
Routing with Error Correction
- arxiv url: http://arxiv.org/abs/2306.09216v1
- Date: Thu, 15 Jun 2023 15:52:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:07:04.193901
- Title: Scalable Quantum Networks: Congestion-Free Hierarchical Entanglement
Routing with Error Correction
- Title(参考訳): スケーラブル量子ネットワーク: 誤り訂正による混雑のない階層的絡み合いルーティング
- Authors: Hyeongrak Choi, Marc G. Davis, \'Alvaro G. I\~nesta, Dirk R. Englund
- Abstract要約: $k$-ary treeネットワークでは、各ノードは下層の$k$ノードに接続され、2つのノードを接続するチャネル長は、葉からルートノードに移動すると$a_k$で増加する。
このアーキテクチャにより、クビット単位のオーバヘッドにより、混雑のない、エラー訂正された操作を、終端ノード数でサブリニアにすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose quantum tree networks for hierarchical multi-flow entanglement
routing. The end nodes on the leaves of the tree communicate through the
routers at internal nodes. In a $k$-ary tree network, each node is connected to
$k$ nodes in the lower layer, and the channel length connecting two nodes grows
with rate $a_k$ as we move from the leaf to the root node. This architecture
enables the qubit-per-node overhead for congestion-free and error-corrected
operations to be sublinear in the number of end nodes, $N$. The overhead
scaling for $k$-ary tree is $O(N^{\log_k a_k} \cdot \log_k N)$. Specifically,
the square-lattice distributed end nodes with the quaternary tree routing leads
to an overhead $\sim O(\sqrt{N}\cdot\log_4 N)$. For a minimal surface-covering
tree, the overhead $\sim O(N^{0.25}\cdot\log_4 N)$ for $k=4$ and is sublinear
for all $k$. We performed network simulations of quantum tree networks that
exhibits size-independent threshold behavior. The routing in tree network does
not require time-consuming multi-path finding algorithms. These properties
satisfy the essential requirements for scalable quantum networks.
- Abstract(参考訳): 階層型マルチフロー絡み合いルーティングのための量子ツリーネットワークを提案する。
木の葉の端ノードは、内部ノードのルーターを介して通信する。
$k$-ary treeネットワークでは、各ノードは下層の$k$ノードに接続され、2つのノードを接続するチャネル長は、葉からルートノードに移動すると$a_k$で増加する。
このアーキテクチャにより、混雑のない、エラー訂正された操作に対するノード当たりのキュービットオーバーヘッドを、エンドノード数でサブリニアにすることができる。
k$-ary treeのオーバーヘッドスケーリングは$O(N^{\log_k a_k} \cdot \log_k N)$である。
具体的には、四次木ルーティングを持つ正方格子分布端ノードは、オーバーヘッド$\sim O(\sqrt{N}\cdot\log_4 N)$となる。
極小曲面被覆木に対して、オーバーヘッド $\sim o(n^{0.25}\cdot\log_4 n)$ は $k=4$ で、すべての $k$ に対して部分線型である。
サイズに依存しないしきい値挙動を示す量子木ネットワークのネットワークシミュレーションを行った。
ツリーネットワークのルーティングは、時間を要するマルチパス探索アルゴリズムを必要としない。
これらの特性はスケーラブルな量子ネットワークに必要な要件を満たす。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Node Embedding for Homophilous Graphs with ARGEW: Augmentation of Random
walks by Graph Edge Weights [2.2935273605606494]
ARGEWはランダムウォークのための新しい拡張手法であり、コーパスをより大きなエッジ重みを持つノードがより近い埋め込みで終わるように拡張する。
いくつかの実世界のネットワークにおいて、ARGEWはそれを使用しないのに対し、より大きなエッジ重みを持つノード対がより密着した埋め込みを持つという望ましいパターンはより明確であることを示す。
論文 参考訳(メタデータ) (2023-08-11T06:19:23Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - Exponentially Improving the Complexity of Simulating the
Weisfeiler-Lehman Test with Graph Neural Networks [22.36443060418036]
非同型グラフの識別におけるグラフニューラルネットワーク(GNN)の表現力は、Weisfeiler-Lehmanグラフテストと全く同じであることを示す。
本稿では,GNN 上での WL テストの高速化について述べる。
論文 参考訳(メタデータ) (2022-11-06T22:38:49Z) - NDGGNET-A Node Independent Gate based Graph Neural Networks [6.155450481110693]
疎結合なノードでは、単一のGNN層を通して十分な情報を得るのは難しい。
この論文では、通常のGNNモデルでより多くのレイヤに対応可能な新しいフレームワークを定義する。
実験結果から,提案モデルがモデル深度を効果的に向上し,複数のデータセットで良好に動作できることが示唆された。
論文 参考訳(メタデータ) (2022-05-11T08:51:04Z) - Cold Brew: Distilling Graph Node Representations with Incomplete or
Missing Neighborhoods [69.13371028670153]
本稿では,SCS(Strict Cold Start)問題に対する誘導型GNNの有効性を検討するために,FCR(Feature-Contribution ratio)を導入する。
実験により,FCRはグラフデータセットの様々な成分の寄与を阻害し,コールドブリューの優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-08T21:29:25Z) - RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs [0.0]
グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
論文 参考訳(メタデータ) (2021-09-15T20:04:01Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Distributed Saddle-Point Problems Under Similarity [173.19083235638104]
与えられたサブ最適度$epsilon0$は、$Omegabigのマスター/ワーカーネットワークで達成されることを示す。
次に,ネットワークの下位の型(ログオーバまで)に適合するアルゴリズムを提案する。
頑健なロジスティック回帰問題に対して提案アルゴリズムの有効性を評価する。
論文 参考訳(メタデータ) (2021-07-22T14:25:16Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。