論文の概要: Depth-bounded Epistemic Logic
- arxiv url: http://arxiv.org/abs/2307.07448v1
- Date: Tue, 11 Jul 2023 07:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 12:26:47.734873
- Title: Depth-bounded Epistemic Logic
- Title(参考訳): 深さ結合型てんかん論理
- Authors: Farid Arthaud (Massachusetts Institute of Technology), Martin Rinard
(Massachusetts Institute of Technology)
- Abstract要約: 本稿では,S5の拡張であるDBELについて述べる。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
これらの論理は、従来の泥だらけ児問題において、エージェントがこの問題をうまく解決するのに必要な深度知識の上限と下限を含む、境界付きモーダル深度推論のエージェントをどのように扱うかを説明するために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Epistemic logics model how agents reason about their beliefs and the beliefs
of other agents. Existing logics typically assume the ability of agents to
reason perfectly about propositions of unbounded modal depth. We present DBEL,
an extension of S5 that models agents that can reason about epistemic formulas
only up to a specific modal depth. To support explicit reasoning about agent
depths, DBEL includes depth atoms Ead (agent a has depth exactly d) and Pad
(agent a has depth at least d). We provide a sound and complete axiomatization
of DBEL.
We extend DBEL to support public announcements for bounded depth agents and
show how the resulting DPAL logic generalizes standard axioms from public
announcement logic. We present two alternate extensions and identify two
undesirable properties, amnesia and knowledge leakage, that these extensions
have but DPAL does not. We provide axiomatizations of these logics as well as
complexity results for satisfiability and model checking.
Finally, we use these logics to illustrate how agents with bounded modal
depth reason in the classical muddy children problem, including upper and lower
bounds on the depth knowledge necessary for agents to successfully solve the
problem.
- Abstract(参考訳): 疫学論理は、エージェントが彼らの信念と他のエージェントの信念をどう考えるかをモデル化する。
既存の論理学は、通常、エージェントが非有界様相の深さの命題について完全に推論する能力を持つ。
s5の拡張であるdbelは、特定のモーダル深さまでしか認識論的公式を推論できないエージェントをモデル化する。
エージェント深さの明確な推論をサポートするため、dbelは深さ原子ead(エージェントaは深さd)とパッド(エージェントaは深さd)を含む。
我々はDBELの完全公理化を行う。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
我々は2つの代替拡張を提示し、2つの望ましくない性質であるアムネシアとナレッジリークを識別し、これらの拡張はDPALにはない。
これらの論理の公理化と、満足度とモデルチェックのための複雑さの結果を提供する。
最後に、これらの論理を用いて、古典的泥質児問題において、エージェントがこの問題をうまく解くために必要な深層知識の上層と下層を含む、有界な様相の深さを持つエージェントについて説明する。
関連論文リスト
- Unveiling the Magic of Code Reasoning through Hypothesis Decomposition and Amendment [54.62926010621013]
我々は,大規模言語モデルの推論能力に対する新たな視点を提供するために,新しいタスクであるコード推論を導入する。
論理的推論の確立した形式に基づいて3つのメタベンチマークを要約し、8つの特定のベンチマークタスクにインスタンス化する。
本稿では,人間の複雑な問題解決手法に触発された新たな経路探索パイプラインを提案する。
論文 参考訳(メタデータ) (2025-02-17T10:39:58Z) - Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - Agentic Reasoning: Reasoning LLMs with Tools for the Deep Research [7.4327380079414676]
本稿では,外部ツール利用エージェントを統合することで,大規模言語モデル(LLM)推論を強化するフレームワークであるAgentic Reasoningを紹介する。
本フレームワークでは,論理的関係を追跡するための構造化知識グラフを構築するMind Mapエージェントを導入している。
PhDレベルの科学的推論(GPQA)とドメイン固有の深層研究タスクの評価は、我々のアプローチが既存のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-07T04:08:46Z) - Aristotle: Mastering Logical Reasoning with A Logic-Complete Decompose-Search-Resolve Framework [93.59256448185954]
本稿では論理完全推論フレームワークであるAristotleについて,論理解法,論理解法,論理解法,論理解法の3つの主要なコンポーネントを提案する。
本フレームワークでは,記号表現と論理規則を総合的に推論プロセスに統合する。
いくつかのデータセットの実験結果は、Aristotleが最先端の推論フレームワークを精度と効率の両方で一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-22T10:14:09Z) - Depth-Bounded Epistemic Planning [50.42592219248395]
本稿では,動的てんかん論理に基づく新しい計画法を提案する。
新規性は、計画エージェントの推論の深さを上界bに制限することである。
推論深度の境界b内における解を持つ計画タスクに関して、完全なものであることを示す。
論文 参考訳(メタデータ) (2024-06-03T09:30:28Z) - BET: Explaining Deep Reinforcement Learning through The Error-Prone
Decisions [7.139669387895207]
エージェントの振る舞いをよりよく説明するために,バックボーン抽出木(Backbone Extract Tree, BET)と呼ばれる新しい自己解釈構造を提案する。
高いレベルでは、BETはエージェントが一貫して一様決定を行う状態はエラーの妥当性を低下させるという仮説を立てている。
説明忠実度の観点から,既存の自己解釈モデルよりもBETの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-01-14T11:45:05Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - On the Complexity of Counterfactual Reasoning [9.614694312155795]
本研究は, 完全特定SCM上での協調的・介入的推論に比較して, 対実的推論は困難ではないことを示す。
我々は、結果を2つ以上の世界を考える必要がある一般的な反事実的推論にまで拡張する。
論文 参考訳(メタデータ) (2022-11-24T07:28:17Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。