論文の概要: Contextuality in multi-agent paradoxes
- arxiv url: http://arxiv.org/abs/2305.07792v1
- Date: Fri, 12 May 2023 22:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 19:36:12.716200
- Title: Contextuality in multi-agent paradoxes
- Title(参考訳): マルチエージェントパラドックスにおける文脈性
- Authors: Sidiney B. Montanhano
- Abstract要約: マルチエージェントシナリオは、非古典的形式主義がエージェント間の知識を扱う必要がある場合に矛盾する結果を示す。
信頼は真理公理と等価であることを示し、非文脈条件を論理形式で書き換えることで、論理的文脈性は音質違反と解釈できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent scenarios show contradictory results when a non-classical
formalism must deal with the knowledge between agents. An interesting way to
observe such paradoxes is by describing these scenarios with multi-modal logic,
where the paradoxes reveal violations of the structure in classical logic. Even
if knowledge is treated in a relational way with the concept of trust,
contradictory results can still be found. Here, I take a step further to treat
the scenarios in full relational language by using knowledge operators. I show
that trust is equivalent to the Truth Axiom and by rewriting the
non-contextuality conditions in logical form, I also demonstrate that logical
contextuality can be understood as the violation of soundness by supposing
mutual knowledge. Loosening this condition by assuming distributed knowledge
eliminates such violations but at the cost of lambda dependence. Finally, the
main examples of multi-agent scenarios are translated to their empirical model
representation, and contextuality is identified as the cause of their
contradictory results.
- Abstract(参考訳): マルチエージェントシナリオは、非古典形式主義がエージェント間の知識を扱わなければならない場合に矛盾する結果を示す。
このようなパラドックスを観察する興味深い方法は、これらのシナリオをマルチモーダル論理で記述することであり、パラドックスは古典論理における構造の違反を明らかにする。
たとえ知識が信頼の概念と関係性のある方法で扱われているとしても、相反する結果が見出される。
ここでは、知識演算子を用いて、完全なリレーショナル言語におけるシナリオを更に扱います。
信頼は真理公理と同値であり、非文脈性条件を論理形式に書き換えることで、論理的文脈性は相互知識を仮定することで健全性違反と解釈できることを示す。
分散知識を仮定してこの条件をルーズすると、そのような違反は排除されるが、ラムダ依存のコストがかかる。
最後に、マルチエージェントシナリオの主な例は経験的モデル表現に変換され、文脈性はその矛盾した結果の原因として特定される。
関連論文リスト
- QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Making sense of relativistic Wigner friend scenarios: a problem for unitary accounts of quantum measurements ? [0.0]
ウィグナーフレンドリーなシナリオは、測定を考慮に入れているときに量子論に固有の困難を浮き彫りにする。
非相対論的シナリオでは、閉系に対するユニタリ進化に対応することが困難である。
相対論的シナリオでは、量子論と相対性理論の間の緊張が追加の制約を引き起こす。
論文 参考訳(メタデータ) (2023-10-06T11:32:03Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Generative Interpretation [0.0]
大規模言語モデルを用いて契約意味を推定する新しい手法である生成的解釈を導入する。
AIモデルは、ファインダーが文脈における通常の意味を確認し、あいまいさを定量化し、当事者の合意のギャップを埋めるのに役立つことを示す。
論文 参考訳(メタデータ) (2023-08-14T02:59:27Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Multi-Agent Systems based on Contextual Defeasible Logic considering
Focus [0.0]
我々は Contextual Defeasible Logic (CDL) を用いた分散推論に関する以前の研究を拡張した。
この研究は、エージェントがローカル知識ベースとマッピングルールで推論できるCDLに基づくマルチエージェントモデルを示す。
本稿では,BDI(Belief-Desire-Intention)エージェントモデルに基づくユースケースシナリオ,提案するモデルの形式化,および初期実装について述べる。
論文 参考訳(メタデータ) (2020-10-01T01:50:08Z) - Failures of Contingent Thinking [2.055949720959582]
実験環境下で観察された幅広い行動は,意味を認識できないことが示唆された。
エージェントの含意が,その行動の根底にある主観的状態空間を識別することを示す。
論文 参考訳(メタデータ) (2020-07-15T14:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。