論文の概要: Ghost factors in Gauss-sum factorization with transmon qubits
- arxiv url: http://arxiv.org/abs/2104.11368v3
- Date: Thu, 9 Dec 2021 01:31:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-04-02 15:15:28.616971
- Title: Ghost factors in Gauss-sum factorization with transmon qubits
- Title(参考訳): トランスモン量子ビットを用いたガウスサム分解におけるゴースト因子
- Authors: Lin Htoo Zaw, Yuanzheng Paul Tan, Long Hoang Nguyen, Rangga P. Budoyo,
Kun Hee Park, Zhi Yang Koh, Alessandro Landra, Christoph Hufnagel, Yung Szen
Yap, Teck Seng Koh, Rainer Dumke
- Abstract要約: 抑制できないゴーストファクターのクラスであるII型ゴーストファクターについて検討した。
II型ゴースト因子の存在とクビットのコヒーレンス時間によって、実験時間全体の上限が設定された。
本稿では,前処理をシステムの識別可能性を高める戦略として導入し,その手法をトランペットキュービットで実証する。
- 参考スコア(独自算出の注目度): 44.62475518267084
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A challenge in the Gauss sums factorization scheme is the presence of ghost
factors - non-factors that behave similarly to actual factors of an integer -
which might lead to the misidentification of non-factors as factors or vice
versa, especially in the presence of noise. We investigate Type II ghost
factors, which are the class of ghost factors that cannot be suppressed with
techniques previously laid out in the literature. The presence of Type II ghost
factors and the coherence time of the qubit set an upper limit for the total
experiment time, and hence the largest factorizable number with this scheme.
Discernability is a figure of merit introduced to characterize this behavior.
We introduce preprocessing as a strategy to increase the discernability of a
system, and demonstrate the technique with a transmon qubit. This can bring the
total experiment time of the system closer to its decoherence limit, and
increase the largest factorizable number.
- Abstract(参考訳): ガウス和因子化スキームの課題はゴースト因子の存在である - 整数の実際の因子と同様に振る舞う非因子は、非因子を因子として、あるいはその逆、特にノイズの存在において誤識別する可能性がある。
従来文献に記載されていた手法では抑制できないゴースト因子の分類であるii型ゴースト因子について検討した。
ii型ゴースト因子と量子ビットのコヒーレンス時間の存在は、実験時間の上限となり、したがってこのスキームで最大となる因子数となった。
識別性は、この行動を特徴付けるために導入された功徳の表現である。
本稿では,前処理をシステムの識別可能性を高める戦略として導入し,その手法をトランペットキュービットで実証する。
これにより、システムの総実験時間がデコヒーレンス限界に近くなり、最大因子数を増加させることができる。
関連論文リスト
- Transformers learn factored representations [62.86679034549244]
トランスフォーマーは次のトークン予測を通じて事前訓練を受け、自分の世界を部品に分解する。
1) すべての因子の積空間における表現であり、その次元は成分の数とともに指数関数的に増加する。
我々は,部分空間の数,次元,文脈埋め込みの配置など,各活性化の幾何学的構造に関する正確な予測を導出する。
このことは、トランスフォーマーがなぜ世界を部品に分解するかを原理的に説明し、複雑なデータで訓練されたモデルでも解釈可能な低次元構造が持続する可能性があることを示唆している。
論文 参考訳(メタデータ) (2026-02-02T17:49:06Z) - Attention in Krylov Space [0.14259046373656994]
本稿では,短い接頭辞からLanczos係数を予測するトランスフォーマーモデルを提案する。
古典系と量子系の両方において、我々の機械学習モデルは、係数と物理観測可能な再構成の両方において適合する。
より小さなシステムでトレーニングし、より大きなシステムの係数を再学習せずに外挿するのに使用することができる。
論文 参考訳(メタデータ) (2026-01-12T19:07:22Z) - Identification of Causal Direction under an Arbitrary Number of Latent Confounders [54.76982125821112]
実世界のシナリオでは、観測された変数は複数の潜伏変数によって同時に影響を受けることがある。
我々は,特定の方法で構築された観測変数の高次累積行列を併用する。
これらの高次累積行列の階数不足特性から,2つの観測変数間の因果非対称性が直接観察可能であることを示す。
論文 参考訳(メタデータ) (2025-10-26T15:10:00Z) - Efficient Detection of Commutative Factors in Factor Graphs [1.1323769002489257]
そこで本研究では,可換因子(DECOR)検出アルゴリズムを導入し,実際に可換因子であるかどうかを確認するための計算労力を大幅に削減する。
我々は,DECORが要求イテレーション数を劇的に減らし,DECORの効率を実証的に評価する制約を効率的に識別できることを証明した。
論文 参考訳(メタデータ) (2024-07-23T08:31:24Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Identification of Causal Structure with Latent Variables Based on Higher
Order Cumulants [31.85295338809117]
本稿では,潜伏変数の影響を受ける2つの変数間の因果エッジの存在を同定するための新しい手法を提案する。
このような因果エッジが流出した場合、因果方向を決定するための非対称性基準を導入する。
論文 参考訳(メタデータ) (2023-12-19T08:20:19Z) - C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - Quantum and Classical Combinatorial Optimizations Applied to
Lattice-Based Factorization [0.046040036610482664]
格子ベースのファクタリングは、より大きな数にうまくスケールしないことが示される。
我々は、CVPの特定の事例と、分解パイプラインの他の部分に量子技術を適用する機会について検討する。
論文 参考訳(メタデータ) (2023-08-15T14:31:25Z) - Maximal Ordinal Two-Factorizations [0.0]
与えられた大きさの2要素化の存在を決定することはNP完全問題であることを示す。
大規模な順序の2要素化を計算できるアルゴリズムOrd2Factorを提供する。
論文 参考訳(メタデータ) (2023-04-06T19:26:03Z) - Interventional Causal Representation Learning [75.18055152115586]
因果表現学習は、低レベルの感覚データから高レベルの潜伏因子を抽出しようとする。
介入データは因果表現学習を促進するか?
介入データは、しばしば潜伏因子の支援の幾何学的シグネチャを持つことを示す。
論文 参考訳(メタデータ) (2022-09-24T04:59:03Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。