論文の概要: Wigner and friends, a map is not the territory! Contextuality in multi-agent paradoxes
- arxiv url: http://arxiv.org/abs/2305.07792v4
- Date: Wed, 17 Apr 2024 20:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 14:38:58.494822
- Title: Wigner and friends, a map is not the territory! Contextuality in multi-agent paradoxes
- Title(参考訳): Wigner and friends, a map is not the territory! マルチエージェントパラドックスにおける文脈性
- Authors: Sidiney B. Montanhano,
- Abstract要約: マルチエージェントシナリオは、非古典的形式主義がエージェント間の知識を扱う必要がある場合に矛盾する結果を示す。
知識が信頼の概念と関係して扱われても、矛盾する結果はマルチエージェントのシナリオでも見ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent scenarios, like Wigner's friend and Frauchiger-Renner scenarios, can show contradictory results when a non-classical formalism must deal with the knowledge between agents. Such paradoxes are described with multi-modal logic as violations of the structure in classical logic. Even if knowledge is treated in a relational way with the concept of trust, contradictory results can still be found in multi-agent scenarios. Contextuality deals with global inconsistencies in empirical models defined on measurement scenarios even when there is local consistency. In the present work, we take a step further to treat the scenarios in full relational language by using knowledge operators, thus showing that trust is equivalent to the Truth Axiom in these cases. A translation of measurement scenarios into multi-agent scenarios by using the topological semantics of multi-modal logic is constructed, demonstrating that logical contextuality can be understood as the violation of soundness by supposing mutual knowledge. To address the contradictions, assuming distributed knowledge is considered, which eliminates such violations but at the cost of lambda-dependence. We conclude by translating the main examples of multi-agent scenarios to their empirical model representation, contextuality is identified as the cause of their contradictory results.
- Abstract(参考訳): Wignerの友人やFrauchiger-Rennerのシナリオのようなマルチエージェントシナリオは、非古典的な形式主義がエージェント間の知識を扱う必要がある場合に矛盾する結果を示す。
このようなパラドックスは、古典論理の構造に反するものとしてマルチモーダル論理で記述される。
知識が信頼の概念と関係して扱われても、矛盾する結果はマルチエージェントのシナリオでも見ることができる。
文脈性は、局所的な一貫性がある場合でも、測定シナリオ上で定義された経験的モデルのグローバルな矛盾を扱う。
本研究は,知識演算子を用いて,完全関係言語におけるシナリオを更に扱い,これらの場合の信頼は真理公理と等価であることを示す。
マルチモーダル論理のトポロジ的意味論を用いて, 測定シナリオをマルチエージェントシナリオに変換し, 相互知識を仮定することで, 論理的文脈性は音質違反と解釈できることを示す。
矛盾に対処するため、分散知識を仮定すると、このような違反は排除されるが、ラムダ依存のコストがかかる。
マルチエージェントシナリオの主な例を経験的モデル表現に翻訳することで、文脈性は矛盾する結果の原因として認識される。
関連論文リスト
- QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Making sense of relativistic Wigner friend scenarios: a problem for unitary accounts of quantum measurements ? [0.0]
ウィグナーフレンドリーなシナリオは、測定を考慮に入れているときに量子論に固有の困難を浮き彫りにする。
非相対論的シナリオでは、閉系に対するユニタリ進化に対応することが困難である。
相対論的シナリオでは、量子論と相対性理論の間の緊張が追加の制約を引き起こす。
論文 参考訳(メタデータ) (2023-10-06T11:32:03Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Generative Interpretation [0.0]
大規模言語モデルを用いて契約意味を推定する新しい手法である生成的解釈を導入する。
AIモデルは、ファインダーが文脈における通常の意味を確認し、あいまいさを定量化し、当事者の合意のギャップを埋めるのに役立つことを示す。
論文 参考訳(メタデータ) (2023-08-14T02:59:27Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Multi-Agent Systems based on Contextual Defeasible Logic considering
Focus [0.0]
我々は Contextual Defeasible Logic (CDL) を用いた分散推論に関する以前の研究を拡張した。
この研究は、エージェントがローカル知識ベースとマッピングルールで推論できるCDLに基づくマルチエージェントモデルを示す。
本稿では,BDI(Belief-Desire-Intention)エージェントモデルに基づくユースケースシナリオ,提案するモデルの形式化,および初期実装について述べる。
論文 参考訳(メタデータ) (2020-10-01T01:50:08Z) - Failures of Contingent Thinking [2.055949720959582]
実験環境下で観察された幅広い行動は,意味を認識できないことが示唆された。
エージェントの含意が,その行動の根底にある主観的状態空間を識別することを示す。
論文 参考訳(メタデータ) (2020-07-15T14:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。