論文の概要: Observing Interventions: A logic for thinking about experiments
- arxiv url: http://arxiv.org/abs/2111.12978v1
- Date: Thu, 25 Nov 2021 09:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:56:13.824325
- Title: Observing Interventions: A logic for thinking about experiments
- Title(参考訳): 介入を観察する:実験を考えるための論理
- Authors: Fausto Barbero, Katrin Schulz, Fernando R. Vel\'azquez-Quesada, Kaibo
Xie
- Abstract要約: 本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper makes a first step towards a logic of learning from experiments.
For this, we investigate formal frameworks for modeling the interaction of
causal and (qualitative) epistemic reasoning. Crucial for our approach is the
idea that the notion of an intervention can be used as a formal expression of a
(real or hypothetical) experiment. In a first step we extend the well-known
causal models with a simple Hintikka-style representation of the epistemic
state of an agent. In the resulting setting, one can talk not only about the
knowledge of an agent about the values of variables and how interventions
affect them, but also about knowledge update. The resulting logic can model
reasoning about thought experiments. However, it is unable to account for
learning from experiments, which is clearly brought out by the fact that it
validates the no learning principle for interventions. Therefore, in a second
step, we implement a more complex notion of knowledge that allows an agent to
observe (measure) certain variables when an experiment is carried out. This
extended system does allow for learning from experiments. For all the proposed
logical systems, we provide a sound and complete axiomatization.
- Abstract(参考訳): 本稿では,実験から学ぶ論理への第一歩を示す。
そこで本研究では,因果関係の相互作用をモデル化するための公式な枠組みについて検討する。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
最初のステップでは、エージェントのてんかん状態の単純なヒンティッカスタイルの表現でよく知られた因果モデルを拡張する。
その結果、変数の価値と介入がどのように影響するかについてのエージェントの知識だけでなく、知識の更新についても話すことができる。
結果の論理は思考実験に関する推論をモデル化することができる。
しかし,実験からの学習を考慮できないことは,介入の学習原理を検証できないという事実から明らかである。
したがって、第2のステップでは、実験を行う際にエージェントが特定の変数を観測(測定)することを可能にする、より複雑な知識概念を実装する。
この拡張システムは実験から学ぶことができる。
提案された全ての論理システムに対して、健全で完全な公理化を提供する。
関連論文リスト
- Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Understanding the Unforeseen via the Intentional Stance [0.0]
本稿では,観察対象者の新しい行動を理解するためのアーキテクチャとシステムについて述べる。
このアプローチの2つの主な特徴は、デネットの意図的な姿勢と類推的推論の採用である。
論文 参考訳(メタデータ) (2022-11-01T14:14:14Z) - Towards Unifying Perceptual Reasoning and Logical Reasoning [0.6853165736531939]
論理学の最近の研究は、論理的推論をベイズ的推論として提示している。
モデルが知覚システムと論理システムに共通する2つの本質的なプロセスを統合することを示す。
論文 参考訳(メタデータ) (2022-06-27T10:32:47Z) - A Quantitative Symbolic Approach to Individual Human Reasoning [0.0]
文献から得られた知見を,論理的枠組みの中で認知的原理として定式化され,理論的推論の定量的概念を確立できることを示す。
非単調推論と計算機科学の技法、すなわち、解集合プログラミング(ASP)と呼ばれる解法パラダイムを用いる。
最後に、ASP.NETの可視性推論を使って、既存の実験の効果をテストし、異なる多数派反応を説明できます。
論文 参考訳(メタデータ) (2022-05-10T16:43:47Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - Causal Curiosity: RL Agents Discovering Self-supervised Experiments for
Causal Representation Learning [24.163616087447874]
心因性好奇心(em causal curiosity)は,本質的な報酬である。
エージェントが最適な行動列を学習できることを示す。
また、因果因子表現の知識は、より複雑なタスクにおいてゼロショット学習に役立つことを示す。
論文 参考訳(メタデータ) (2020-10-07T02:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。