論文の概要: Resource-theoretic hierarchy of contextuality for general probabilistic theories
- arxiv url: http://arxiv.org/abs/2406.00717v1
- Date: Sun, 2 Jun 2024 11:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:46:38.716434
- Title: Resource-theoretic hierarchy of contextuality for general probabilistic theories
- Title(参考訳): 一般確率論における文脈性の資源論的階層構造
- Authors: Lorenzo Catani, Thomas D. Galley, Tomáš Gonda,
- Abstract要約: 一般化された文脈性の階層を示す。
これは文脈理論と非文脈理論の伝統的な二分法を洗練させる。
提案手法は,準備・対策シナリオの文脈性に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we present a hierarchy of generalized contextuality. It refines the traditional binary distinction between contextual and noncontextual theories, and facilitates their comparison based on how contextual they are. Our approach focuses on the contextuality of prepare-and-measure scenarios, described by general probabilistic theories (GPTs). To motivate the hierarchy, we define it as the resource ordering of a novel resource theory of GPT-contextuality. The building blocks of its free operations are classical systems and GPT-embeddings. The latter are simulations of one GPT by another, which preserve the operational equivalences and thus cannot generate contextuality. Noncontextual theories can be recovered as least elements in the hierarchy. We then define a new contextuality monotone, called classical excess, given by the minimal error of embedding a GPT within an infinite classical system. In addition, we show that the optimal success probability in the parity oblivious multiplexing game also defines a monotone in our resource theory. We end with a discussion of a potential interpretation of the non-free operations of the resource theory of GPT-contextuality as expressing a kind of information erasure.
- Abstract(参考訳): この研究では、一般化された文脈性の階層を示す。
文脈的理論と非文脈的理論の伝統的な二項区別を洗練させ、文脈的理論と非文脈的理論との対比を促進する。
提案手法は,一般確率論(GPT)によって記述された準備・測定シナリオの文脈性に焦点をあてる。
階層化の動機付けとして, GPT-contextuality の新たな資源理論の資源順序付けとして定義する。
フリーオペレーションのビルディングブロックは古典的なシステムとGPT埋め込みである。
後者は別のGPTのシミュレーションであり、運用上の等価性を保ち、したがって文脈性を生成することができない。
非文脈理論は階層内の最小要素として回復することができる。
次に、GPTを無限古典系に埋め込む最小誤差によって与えられる古典的余剰と呼ばれる新しい文脈性単調性を定義する。
さらに,パリティ・オブリビラス多重化ゲームにおける最適成功確率は,資源理論におけるモノトーンを定義することも示している。
我々は、GPT-contextuality の資源理論の非自由な操作を、情報消去の一種を表すものとして解釈する可能性について論じる。
関連論文リスト
- A bundle perspective on contextuality: Empirical models and simplicial
distributions on bundle scenarios [0.0]
本稿では, 単体錯体と単体集合のバンドルに基づく文脈性シナリオの新たなカテゴリを紹介する。
前者のアプローチは、文脈性に関するせん断理論的な視点に関する初期の研究を一般化している。
後者は、単純化集合の言語で定式化された文脈性に対するより最近のアプローチである、単純分布を拡張している。
論文 参考訳(メタデータ) (2023-08-11T18:19:49Z) - Unifying different notions of quantum incompatibility into a strict
hierarchy of resource theories of communication [60.18814584837969]
我々は、POVM、チャネル、機器の非互換性の異なる概念を統一するq-compatibilityの概念を導入する。
我々は、情報理論資源の観点から、各非互換性の概念が何を構成しているかを正確に特定することができる。
論文 参考訳(メタデータ) (2022-11-16T21:33:31Z) - Simple Primitives with Feasibility- and Contextuality-Dependence for
Open-World Compositional Zero-shot Learning [86.5258816031722]
コンポジションゼロショット学習(CZSL)の課題は、トレーニング段階で欠落している新しい状態オブジェクトのイメージを認識することである。
コンポジション埋め込みの学習方法は、クローズドワールドCZSLにおいて有効であることが示されている。
オープンワールドCZSL (OW-CZSL) では, 組成の濃度が大きいため, その性能は著しく低下する傾向にある。
論文 参考訳(メタデータ) (2022-11-05T12:57:06Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Understanding Robust Generalization in Learning Regular Languages [85.95124524975202]
我々は、リカレントニューラルネットワークを用いて正規言語を学習する文脈における堅牢な一般化について研究する。
この問題に対処するための構成戦略を提案する。
構成戦略がエンド・ツー・エンド戦略よりもはるかに優れていることを理論的に証明する。
論文 参考訳(メタデータ) (2022-02-20T02:50:09Z) - Accessible fragments of generalized probabilistic theories, cone equivalence, and applications to witnessing nonclassicality [0.7421845364041001]
本稿では, 与えられた物理理論において, 特定の実験装置のGPTライクな特徴を与える方法について考察する。
得られた特徴付けは一般的にはGPTではなく、それ自身ではなく、より一般的な数学的対象によって記述されることを示す。
一般化された非コンテクスト性の失敗を目撃するには,測定の不整合性や選択の自由の仮定は不可欠ではない。
論文 参考訳(メタデータ) (2021-12-08T19:00:23Z) - General probabilistic theories: An introduction [0.0]
GPTの基本概念と要素を詳細に解説する。
レビューは自己完結しており、読者にGPTへの一貫した導入を提供することを目的としている。
論文 参考訳(メタデータ) (2021-03-12T12:42:02Z) - Bounding and simulating contextual correlations in quantum theory [0.0]
一般化された文脈性シナリオにおける量子相関の集合の半定緩和階層を導入する。
我々は、これまで最大違反が不明であったいくつかの非文脈不等式に対する最大量子違反を決定するためにこれを用いる。
その後さらに進み、ある種の準備・文脈的相関が純粋な状態では説明できないことを証明するために使用します。
論文 参考訳(メタデータ) (2020-10-09T18:19:09Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - A structure theorem for generalized-noncontextual ontological models [0.0]
我々は、トモグラフィ的に局所的な操作理論の一般化された非文脈的存在論的モデルが驚くほど厳密で単純な数学的構造を持つことを示すために、プロセス理論の枠組みを用いる。
我々は,古典性の概念の同値性に関する既知結果を,準備尺度から任意の構成シナリオまで拡張する。
論文 参考訳(メタデータ) (2020-05-14T17:28:19Z) - A Benchmark for Systematic Generalization in Grounded Language
Understanding [61.432407738682635]
人間は慣れ親しんだ部分から成り立つ不慣れな状況を記述する表現を容易に解釈する。
対照的に、現代のニューラルネットワークは、新しい構成を理解するのに苦労している。
位置言語理解における合成一般化を評価するための新しいベンチマークであるgSCANを導入する。
論文 参考訳(メタデータ) (2020-03-11T08:40:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。