論文の概要: To do or not to do: finding causal relations in smart homes
- arxiv url: http://arxiv.org/abs/2105.10058v1
- Date: Thu, 20 May 2021 22:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:29:03.204372
- Title: To do or not to do: finding causal relations in smart homes
- Title(参考訳): やるべきかどうか:スマートホームで因果関係を見つけること
- Authors: Kanvaly Fadiga, Etienne Houz\'e, Ada Diaconescu and Jean-Louis
Dessalles
- Abstract要約: 本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research in Cognitive Science suggests that humans understand and represent
knowledge of the world through causal relationships. In addition to
observations, they can rely on experimenting and counterfactual reasoning --
i.e. referring to an alternative course of events -- to identify causal
relations and explain atypical situations. Different instances of control
systems, such as smart homes, would benefit from having a similar causal model,
as it would help the user understand the logic of the system and better react
when needed. However, while data-driven methods achieve high levels of
correlation detection, they mainly fall short of finding causal relations,
notably being limited to observations only. Notably, they struggle to identify
the cause from the effect when detecting a correlation between two variables.
This paper introduces a new way to learn causal models from a mixture of
experiments on the environment and observational data. The core of our method
is the use of selected interventions, especially our learning takes into
account the variables where it is impossible to intervene, unlike other
approaches. The causal model we obtain is then used to generate Causal Bayesian
Networks, which can be later used to perform diagnostic and predictive
inference. We use our method on a smart home simulation, a use case where
knowing causal relations pave the way towards explainable systems. Our
algorithm succeeds in generating a Causal Bayesian Network close to the
simulation's ground truth causal interactions, showing encouraging prospects
for application in real-life systems.
- Abstract(参考訳): 認知科学の研究は、人間は因果関係を通じて世界の知識を理解し、表現することを示唆している。
観察に加えて、実験や反事実推論にも頼ることができる。
因果関係を特定し、非定型的な状況を説明するために、イベントの別のコースを参照すること。
スマートホームのようなコントロールシステムの異なるインスタンスは、ユーザがシステムのロジックを理解し、必要に応じて反応するのに役立つため、同様の因果モデルを持つことで恩恵を受けるでしょう。
しかし、データ駆動法は高いレベルの相関検出を実現する一方で、主に因果関係を見出すことができず、特に観測のみに限定されている。
特に、2つの変数間の相関を検出する際に、影響から原因を特定するのに苦労している。
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の中核は、選択された介入の使用であり、特に他のアプローチとは異なり、介入が不可能な変数を考慮した学習である。
得られた因果モデルは因果ベイズネットワークを生成するために使用され、後に診断および予測推論を実行するために使用される。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
本アルゴリズムはシミュレーションの基底的真理因果相互作用に近い因果ベイズネットワークを生成することに成功し,実生活システムにおける応用の可能性を示す。
関連論文リスト
- CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series [4.008958683836471]
CAnDOITは、観測データと介入データの両方を用いて因果モデルを再構築する因果発見手法である。
因果解析における介入データの利用は、ロボット工学のような現実世界の応用には不可欠である。
CAnDOITのPython実装も開発され、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-03T13:57:08Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Bayesian Model Averaging for Data Driven Decision Making when Causality
is Partially Known [0.0]
我々はベイズモデル平均化(BMA)のようなアンサンブル法を用いて因果グラフの集合を推定する。
潜在的な介入の期待値とリスクを明示的に計算して意思決定を行います。
論文 参考訳(メタデータ) (2021-05-12T01:55:45Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。