論文の概要: Contextuality Can be Verified with Noncontextual Experiments
- arxiv url: http://arxiv.org/abs/2412.00199v1
- Date: Fri, 29 Nov 2024 19:01:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:21.620449
- Title: Contextuality Can be Verified with Noncontextual Experiments
- Title(参考訳): 文脈性は非文脈実験で検証できる
- Authors: Jonathan J. Thio, Wilfred Salmon, Crispin H. W. Barnes, Stephan De Bièvre, David R. M. Arvidsson-Shukur,
- Abstract要約: 量子状態は複素単位円板の値を取るKD分布で表すことができる。
KD分布は、一連の弱いおよび射影的な測定によって測定することができる。
我々は、純粋なKD陽性状態の凸結合として分解できない混合KD陽性状態について、この関係を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We uncover new features of generalized contextuality by connecting it to the Kirkwood-Dirac (KD) quasiprobability distribution. Quantum states can be represented by KD distributions, which take values in the complex unit disc. Only for ``KD-positive'' states are the KD distributions joint probability distributions. A KD distribution can be measured by a series of weak and projective measurements. We design such an experiment and show that it is contextual iff the underlying state is not KD-positive. We analyze this connection with respect to mixed KD-positive states that cannot be decomposed as convex combinations of pure KD-positive states. Our result is the construction of a noncontextual experiment that enables an experimenter to verify contextuality.
- Abstract(参考訳): カークウッド・ディラック(KD)準確率分布に接続することで、一般化された文脈性の新しい特徴を明らかにする。
量子状態は複素単位円板の値を取るKD分布で表すことができる。
KD-陽性'状態は、KD分布と合同確率分布のみである。
KD分布は、一連の弱いおよび射影的な測定によって測定することができる。
このような実験を設計し、その基礎となる状態がKD陽性でないことを文脈的フリップとして示す。
我々は、純粋なKD陽性状態の凸結合として分解できない混合KD陽性状態について、この関係を解析する。
その結果,実験者が文脈性を検証できる非文脈実験が構築された。
関連論文リスト
- A Dual-Space Framework for General Knowledge Distillation of Large Language Models [98.73585104789217]
知識蒸留(KD)は、より小さなモデルに知識を移すことによって、大きな言語モデル(LLM)を圧縮する有望なソリューションである。
現在のWhite-box KDフレームワークには2つの制限がある。
我々は,教師の予測ヘッドとKDの学生モデルを統合する,二空間知識蒸留(DSKD)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-15T17:38:47Z) - The boundary of Kirkwood-Dirac quasiprobability [0.759660604072964]
カークウッド・ディラック準確率(Kirkwood-Dirac quasiprobability)は、合同量子観測器の測定統計を記述している。
我々は、KD準確率の外部境界を与えるため、軽微な仮定の下で量子後準確率を導入する。
驚くべきことに、古典的確率とKD準確率の両方に有効ないくつかの非自明な境界を導出することができる。
論文 参考訳(メタデータ) (2025-04-12T14:23:36Z) - Counterfactual Realizability [52.85109506684737]
本稿では, 正規化可能性の定義, 分布からサンプルを抽出する能力を導入し, 任意の反事実分布が実現可能であるかどうかを判定する完全アルゴリズムを開発する。
本稿では、因果的公正さと因果的強化学習のモチベーション例を用いて、この新たな反ファクト的データ収集フレームワークの意義を説明する。
論文 参考訳(メタデータ) (2025-03-14T20:54:27Z) - Structure, Positivity and Classical Simulability of Kirkwood-Dirac Distributions [0.0]
カークウッド・ディラック準確率分布の進化について検討した。
互いに偏りのない基底上で定義された分布における純KD正の状態の境界を同定する。
フーリエ基底の四重項上のKD分布の離散フーリエ変換は自己相似性制約に従うことを示す。
論文 参考訳(メタデータ) (2025-02-17T13:20:10Z) - Convex roofs witnessing Kirkwood-Dirac nonpositivity [0.0]
一般混合状態に対するKD非正の2つの証人を構築する。
私たちの最初の目撃者は、サポートの不確実性の凸屋根です。
もう一つの目撃者は、全KD非正の凸屋根である。
論文 参考訳(メタデータ) (2024-07-05T14:47:32Z) - Properties and Applications of the Kirkwood-Dirac Distribution [0.0]
KD分布は量子力学を解析するための強力な準確率分布である。
任意の可観測性の観点から量子状態を表現することができる。
本稿はKD分布を3つにまとめる。
論文 参考訳(メタデータ) (2024-03-27T18:00:02Z) - Characterizing the geometry of the Kirkwood-Dirac positive states [0.0]
カークウッド・ディラック(KD)準確率分布は、2つの観測可能な$A$と$B$の固有基底に関する任意の量子状態を記述することができる。
正のKD分布を持つ状態の全凸集合が、$A$と$B$の固有基底に依存することを示す。
また、純粋なKD陽性状態の凸結合として書けない混合KD陽性状態が存在するかどうかについても検討する。
論文 参考訳(メタデータ) (2023-05-31T18:05:02Z) - On student-teacher deviations in distillation: does it pay to disobey? [54.908344098305804]
知識蒸留は「学生」ネットワークのテスト精度を向上させるために広く用いられている。
教師の確率に合うように訓練されているにもかかわらず、生徒は教師の確率から大きく逸脱するだけでなく、パフォーマンスにおいて教師を上回ることもある。
論文 参考訳(メタデータ) (2023-01-30T14:25:02Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Kirkwood-Dirac classical pure states [0.32634122554914]
量子状態がKD古典(KD classical)と呼ばれるのは、KD分布が確率分布であるときである。
我々は、KD古典的純粋状態の一般構造を特徴づける。
論文 参考訳(メタデータ) (2022-10-06T12:58:33Z) - KDExplainer: A Task-oriented Attention Model for Explaining Knowledge
Distillation [59.061835562314066]
KDExplainerと呼ばれる新しいタスク指向の注意モデルを導入し、バニラKDの基礎となる作業メカニズムを明らかにします。
また、仮想注意モジュール(VAM)と呼ばれるポータブルツールを導入し、さまざまなディープニューラルネットワーク(DNN)とシームレスに統合し、KDの下でのパフォーマンスを向上させることができます。
論文 参考訳(メタデータ) (2021-05-10T08:15:26Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。