論文の概要: Depth-bounded Epistemic Logic
- arxiv url: http://arxiv.org/abs/2307.07448v1
- Date: Tue, 11 Jul 2023 07:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 12:26:47.734873
- Title: Depth-bounded Epistemic Logic
- Title(参考訳): 深さ結合型てんかん論理
- Authors: Farid Arthaud (Massachusetts Institute of Technology), Martin Rinard
(Massachusetts Institute of Technology)
- Abstract要約: 本稿では,S5の拡張であるDBELについて述べる。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
これらの論理は、従来の泥だらけ児問題において、エージェントがこの問題をうまく解決するのに必要な深度知識の上限と下限を含む、境界付きモーダル深度推論のエージェントをどのように扱うかを説明するために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Epistemic logics model how agents reason about their beliefs and the beliefs
of other agents. Existing logics typically assume the ability of agents to
reason perfectly about propositions of unbounded modal depth. We present DBEL,
an extension of S5 that models agents that can reason about epistemic formulas
only up to a specific modal depth. To support explicit reasoning about agent
depths, DBEL includes depth atoms Ead (agent a has depth exactly d) and Pad
(agent a has depth at least d). We provide a sound and complete axiomatization
of DBEL.
We extend DBEL to support public announcements for bounded depth agents and
show how the resulting DPAL logic generalizes standard axioms from public
announcement logic. We present two alternate extensions and identify two
undesirable properties, amnesia and knowledge leakage, that these extensions
have but DPAL does not. We provide axiomatizations of these logics as well as
complexity results for satisfiability and model checking.
Finally, we use these logics to illustrate how agents with bounded modal
depth reason in the classical muddy children problem, including upper and lower
bounds on the depth knowledge necessary for agents to successfully solve the
problem.
- Abstract(参考訳): 疫学論理は、エージェントが彼らの信念と他のエージェントの信念をどう考えるかをモデル化する。
既存の論理学は、通常、エージェントが非有界様相の深さの命題について完全に推論する能力を持つ。
s5の拡張であるdbelは、特定のモーダル深さまでしか認識論的公式を推論できないエージェントをモデル化する。
エージェント深さの明確な推論をサポートするため、dbelは深さ原子ead(エージェントaは深さd)とパッド(エージェントaは深さd)を含む。
我々はDBELの完全公理化を行う。
我々はDBELを拡張して,有界深度エージェントの公開告知をサポートし,結果のDPAL論理が公開告知ロジックから標準公理をどのように一般化するかを示す。
我々は2つの代替拡張を提示し、2つの望ましくない性質であるアムネシアとナレッジリークを識別し、これらの拡張はDPALにはない。
これらの論理の公理化と、満足度とモデルチェックのための複雑さの結果を提供する。
最後に、これらの論理を用いて、古典的泥質児問題において、エージェントがこの問題をうまく解くために必要な深層知識の上層と下層を含む、有界な様相の深さを持つエージェントについて説明する。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Depth-Bounded Epistemic Planning [50.42592219248395]
本稿では,動的てんかん論理に基づく新しい計画法を提案する。
新規性は、計画エージェントの推論の深さを上界bに制限することである。
推論深度の境界b内における解を持つ計画タスクに関して、完全なものであることを示す。
論文 参考訳(メタデータ) (2024-06-03T09:30:28Z) - BP4ER: Bootstrap Prompting for Explicit Reasoning in Medical Dialogue Generation [31.40174974440382]
医療対話生成(MDG)はその実質的な価値から注目を集めている。
MDG(BP4ER)における明示的推論のためのBootstrap Prompting法を提案する。
BP4ERはMDGの多段階推論プロセスを明示的にモデル化し、この推論プロセスを反復的に強化する。
2つの公開データセットの実験結果から,BP4ERは客観的および主観的評価指標の両方の観点から,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-03-28T13:38:13Z) - BET: Explaining Deep Reinforcement Learning through The Error-Prone
Decisions [7.139669387895207]
エージェントの振る舞いをよりよく説明するために,バックボーン抽出木(Backbone Extract Tree, BET)と呼ばれる新しい自己解釈構造を提案する。
高いレベルでは、BETはエージェントが一貫して一様決定を行う状態はエラーの妥当性を低下させるという仮説を立てている。
説明忠実度の観点から,既存の自己解釈モデルよりもBETの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-01-14T11:45:05Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - LAMBADA: Backward Chaining for Automated Reasoning in Natural Language [11.096348678079574]
LAMBADAと呼ばれる逆チェインアルゴリズムは、推論を4つのサブモジュールに分解する。
LAMBADAは最先端のフォワード推論手法よりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:06:03Z) - On the Complexity of Counterfactual Reasoning [9.614694312155795]
本研究は, 完全特定SCM上での協調的・介入的推論に比較して, 対実的推論は困難ではないことを示す。
我々は、結果を2つ以上の世界を考える必要がある一般的な反事実的推論にまで拡張する。
論文 参考訳(メタデータ) (2022-11-24T07:28:17Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。