論文の概要: Nonlocality distillation can outperform entanglement distillation
- arxiv url: http://arxiv.org/abs/2603.00940v1
- Date: Sun, 01 Mar 2026 06:18:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.422432
- Title: Nonlocality distillation can outperform entanglement distillation
- Title(参考訳): 非局所蒸留は絡み合い蒸留より優れている
- Authors: Peter Høyer, Jibran Rashid, Razeen ud Din,
- Abstract要約: 共有状態のコピー数に制限がある場合には、ベル状態を生成することにより絡み込み蒸留が動作することが保証される。
少数の状態コピーでは, 最適な絡み合い蒸留では通信が必要であるが, 非局所蒸留ではCHSH値が高いことが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the goal of maximizing CHSH violation, we compare the optimal strategies of entanglement and nonlocality distillation. In the limit of the number of copies of the shared state, entanglement distillation is guaranteed to work by generating a Bell state. For a small number of copies of the state, we show that nonlocality distillation can achieve a higher CHSH value, even though optimal entanglement distillation requires communication. Nonlocality distillation not only outperforms entanglement distillation but also demonstrates superior resource efficiency across multiple metrics for quantum resource estimation.
- Abstract(参考訳): CHSH違反の最大化を目標として, 絡み合いと非局所蒸留の最適戦略を比較した。
共有状態のコピー数に制限がある場合には、ベル状態を生成することにより絡み込み蒸留が動作することが保証される。
少数の状態コピーでは, 最適な絡み合い蒸留では通信が必要であるが, 非局所蒸留ではCHSH値が高いことが示されている。
非局所蒸留は、絡み合い蒸留よりも優れているだけでなく、量子資源推定のための複数の指標で優れた資源効率を示す。
関連論文リスト
- Towards Distillation-Resistant Large Language Models: An Information-Theoretic Perspective [52.25797439810419]
既存の防衛はテキストベースの蒸留のみに重点を置いており、重要なロジットベースの蒸留はほとんど探索されていない。
我々は,教師のロジットと接地木ラベルに条件付けされた入力クエリ間の条件付き相互情報(CMI)を用いて,教師出力の蒸留関連情報を特徴付ける。
我々は,CMIにインスパイアされた抗蒸留目標を導出し,この変換を最適化し,出力ユーティリティを保ちながら蒸留関連情報を効果的に除去する。
論文 参考訳(メタデータ) (2026-02-03T11:16:59Z) - Exponential Analysis for Entanglement Distillation [9.125120975190711]
本研究では, 蒸留誤差の減衰の最適指数を規定するエンタングルメント蒸留の信頼性関数について検討した。
また、フレームワークを既知の状態の標準設定からブラックボックス設定に拡張し、可能な状態の集合から蒸留を行う。
論文 参考訳(メタデータ) (2026-01-15T08:46:47Z) - Antidistillation Sampling [97.86194163974783]
拡張推論トレースを生成するモデルは、モデル蒸留を容易にするリッチトークンシーケンスを不注意に生成する。
この脆弱性を認識したモデル所有者は、モデル性能を損なうことなく蒸留の有効性を制限するサンプリング戦略を求めることができる。
抗蒸留サンプリングは、モデルの実用性を保ちながら、蒸留に著しく効果の低い推理トレースをレンダリングする。
論文 参考訳(メタデータ) (2025-04-17T17:54:14Z) - Enhancing Quantum Key Distribution with Entanglement Distillation and Classical Advantage Distillation [0.0]
本稿では, エンタングルメント蒸留と古典的有利蒸留を組み合わせた2段階蒸留方式を提案する。
提案手法は高雑音状態においても有限鍵レートを達成することを示す。
提案手法は、短期量子鍵分布タスクに適している。
論文 参考訳(メタデータ) (2024-10-25T06:40:09Z) - One-shot distillation with constant overhead using catalysts [3.771547570340179]
オーバヘッド蒸留の最小化は、量子計算やその他の技術の実現に不可欠である。
特に, マジック状態蒸留では, 分岐バッチサイズ問題に対処するための経路を舗装する。
動的量子資源に技法を拡張し、相互情報が一発触媒チャネル変換を決定することを示す。
論文 参考訳(メタデータ) (2024-10-18T15:41:52Z) - Threshold (Q, P) Quantum Distillation [1.3412310262092788]
我々は、同じ目的を達成するが、より少ないパーティ 'Q' を使用するしきい値量子蒸留タスクを提案する。
具体的には、任意のGHZ状態は、蒸留プロトコルの成功確率と蒸留後の忠実度の両方がパーティー数に依存しているため、ネットワーク内の1つのパーティのみを用いて蒸留することができる。
一般のW状態の場合、蒸留には少なくとも「P-1」パーティが必要であり、蒸留とそのような状態の分離性の間に強い関係があることが示される。
論文 参考訳(メタデータ) (2024-08-13T05:05:08Z) - Leveraging Zero-Level Distillation to Generate High-Fidelity Magic States [0.8009842832476994]
比較的高忠実度なマジック状態を生成する2段階蒸留装置の空間的時間的オーバーヘッドを評価する。
ゼロレベル蒸留の小さなフットプリントを活かすため,第2レベルの15-to-1実装を改良する。
論文 参考訳(メタデータ) (2024-04-15T12:42:29Z) - Distill Gold from Massive Ores: Bi-level Data Pruning towards Efficient Dataset Distillation [96.92250565207017]
本研究では,データセット蒸留作業におけるデータ効率と選択について検討する。
蒸留の力学を再現することにより、実際のデータセットに固有の冗長性についての洞察を提供する。
蒸留における因果関係から最も寄与した試料を見出した。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - KD-DETR: Knowledge Distillation for Detection Transformer with Consistent Distillation Points Sampling [52.11242317111469]
我々は、知識蒸留によるDETRの圧縮に焦点を当てる。
DETR蒸留の主な課題は、一貫した蒸留点の欠如である。
本稿では,一貫した蒸留点サンプリングによるDETRのための最初の一般知識蒸留パラダイムを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:52:30Z) - Spot-adaptive Knowledge Distillation [39.23627955442595]
我々はスポット適応型KD(SAKD)と呼ばれる新しい蒸留戦略を提案する。
SAKDは、全蒸留期間中のトレーニングイテレーション毎に、サンプルごとの教師ネットワーク内の蒸留スポットを適応的に決定する。
SAKDの有効性を実証するために10種類の最先端蒸留器を用いた実験を行った。
論文 参考訳(メタデータ) (2022-05-05T02:21:32Z) - Pre-trained Summarization Distillation [121.14806854092672]
近年の分類・回帰作業におけるBERT蒸留の研究は, 直接的知識蒸留による高い性能を示している。
あるいは、機械翻訳の実践者は擬似ラベルを用いて蒸留し、小さなモデルをより大きなモデルの翻訳に基づいて訓練する。
第三に、より単純なアプローチは'shrink and fine-tune' (SFT) であり、より小さな学生モデルにパラメータをコピーして微調整することで、明示的な蒸留を避ける。
論文 参考訳(メタデータ) (2020-10-24T23:15:43Z) - Why distillation helps: a statistical perspective [69.90148901064747]
知識蒸留は、単純な「学生」モデルの性能を向上させる技術である。
この単純なアプローチは広く有効であることが証明されているが、基本的な問題は未解決のままである。
蒸留が既存の負の鉱業技術をどのように補完し, 極端に多層的検索を行うかを示す。
論文 参考訳(メタデータ) (2020-05-21T01:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。