論文の概要: Depth-bounded Epistemic Logic
- arxiv url: http://arxiv.org/abs/2307.07448v1
- Date: Tue, 11 Jul 2023 07:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 12:26:47.734873
- Title: Depth-bounded Epistemic Logic
- Title(参考訳): 深さ結合型てんかん論理
- Authors: Farid Arthaud (Massachusetts Institute of Technology), Martin Rinard
(Massachusetts Institute of Technology)
- Abstract要約: 本稿では,S5の拡張であるDBELについて述べる。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
これらの論理は、従来の泥だらけ児問題において、エージェントがこの問題をうまく解決するのに必要な深度知識の上限と下限を含む、境界付きモーダル深度推論のエージェントをどのように扱うかを説明するために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Epistemic logics model how agents reason about their beliefs and the beliefs
of other agents. Existing logics typically assume the ability of agents to
reason perfectly about propositions of unbounded modal depth. We present DBEL,
an extension of S5 that models agents that can reason about epistemic formulas
only up to a specific modal depth. To support explicit reasoning about agent
depths, DBEL includes depth atoms Ead (agent a has depth exactly d) and Pad
(agent a has depth at least d). We provide a sound and complete axiomatization
of DBEL.
We extend DBEL to support public announcements for bounded depth agents and
show how the resulting DPAL logic generalizes standard axioms from public
announcement logic. We present two alternate extensions and identify two
undesirable properties, amnesia and knowledge leakage, that these extensions
have but DPAL does not. We provide axiomatizations of these logics as well as
complexity results for satisfiability and model checking.
Finally, we use these logics to illustrate how agents with bounded modal
depth reason in the classical muddy children problem, including upper and lower
bounds on the depth knowledge necessary for agents to successfully solve the
problem.
- Abstract(参考訳): 疫学論理は、エージェントが彼らの信念と他のエージェントの信念をどう考えるかをモデル化する。
既存の論理学は、通常、エージェントが非有界様相の深さの命題について完全に推論する能力を持つ。
s5の拡張であるdbelは、特定のモーダル深さまでしか認識論的公式を推論できないエージェントをモデル化する。
エージェント深さの明確な推論をサポートするため、dbelは深さ原子ead(エージェントaは深さd)とパッド(エージェントaは深さd)を含む。
我々はDBELの完全公理化を行う。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
我々は2つの代替拡張を提示し、2つの望ましくない性質であるアムネシアとナレッジリークを識別し、これらの拡張はDPALにはない。
これらの論理の公理化と、満足度とモデルチェックのための複雑さの結果を提供する。
最後に、これらの論理を用いて、古典的泥質児問題において、エージェントがこの問題をうまく解くために必要な深層知識の上層と下層を含む、有界な様相の深さを持つエージェントについて説明する。
関連論文リスト
- BET: Explaining Deep Reinforcement Learning through The Error-Prone
Decisions [7.139669387895207]
エージェントの振る舞いをよりよく説明するために,バックボーン抽出木(Backbone Extract Tree, BET)と呼ばれる新しい自己解釈構造を提案する。
高いレベルでは、BETはエージェントが一貫して一様決定を行う状態はエラーの妥当性を低下させるという仮説を立てている。
説明忠実度の観点から,既存の自己解釈モデルよりもBETの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-01-14T11:45:05Z) - From Indeterminacy to Determinacy: Augmenting Logical Reasoning
Capabilities with Large Language Models [79.88472218252224]
DetermLRは、推論プロセスを非決定的な前提から非決定的な前提へと転換する過程として定式化する、新しい推論フレームワークである。
DetermLRは、訪問する状態を少なくし、論理的推論タスクに対処する上で、その優れた効率性と有効性を強調しながら、より良い推論性能を達成することができる。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge
Reasoning via Promoting Causal Consistency in LLMs [63.26541167737355]
知識に基づく推論における忠実さと因果性を高めるための枠組みを提案する。
我々のフレームワークは、最先端のアプローチを大きなマージンで比較している。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Learnability with PAC Semantics for Multi-agent Beliefs [38.88111785113001]
推論と帰納の緊張は、おそらく哲学、認知、人工知能といった分野において最も根本的な問題である。
Valiant氏は、学習の課題は推論と統合されるべきである、と認識した。
古典的な包含よりも弱いが、クエリに応答する強力なモデル理論のフレームワークを可能にする。
論文 参考訳(メタデータ) (2023-06-08T18:22:46Z) - LAMBADA: Backward Chaining for Automated Reasoning in Natural Language [11.096348678079574]
LAMBADAと呼ばれる逆チェインアルゴリズムは、推論を4つのサブモジュールに分解する。
LAMBADAは最先端のフォワード推論手法よりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:06:03Z) - On the Complexity of Counterfactual Reasoning [9.614694312155795]
本研究は, 完全特定SCM上での協調的・介入的推論に比較して, 対実的推論は困難ではないことを示す。
我々は、結果を2つ以上の世界を考える必要がある一般的な反事実的推論にまで拡張する。
論文 参考訳(メタデータ) (2022-11-24T07:28:17Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Fact-driven Logical Reasoning for Machine Reading Comprehension [82.58857437343974]
私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
論文 参考訳(メタデータ) (2021-05-21T13:11:13Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。