論文の概要: Automated Discovery of Functional Actual Causes in Complex Environments
- arxiv url: http://arxiv.org/abs/2404.10883v1
- Date: Tue, 16 Apr 2024 20:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 18:02:19.145734
- Title: Automated Discovery of Functional Actual Causes in Complex Environments
- Title(参考訳): 複合環境における機能的原因の自動発見
- Authors: Caleb Chuck, Sankaran Vaidyanathan, Stephen Giguere, Amy Zhang, David Jensen, Scott Niekum,
- Abstract要約: 強化学習アルゴリズムは、しばしば新しい状況に一般化するポリシーを学ぶのに苦労する。
本稿では,機能的現実原因 (FAC) について紹介する。
さらに、観測データから関数的原因を推測するアルゴリズムであるJACI(Joint Optimization for Actual Cause Inference)を導入する。
- 参考スコア(独自算出の注目度): 18.58053096534201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) algorithms often struggle to learn policies that generalize to novel situations due to issues such as causal confusion, overfitting to irrelevant factors, and failure to isolate control of state factors. These issues stem from a common source: a failure to accurately identify and exploit state-specific causal relationships in the environment. While some prior works in RL aim to identify these relationships explicitly, they rely on informal domain-specific heuristics such as spatial and temporal proximity. Actual causality offers a principled and general framework for determining the causes of particular events. However, existing definitions of actual cause often attribute causality to a large number of events, even if many of them rarely influence the outcome. Prior work on actual causality proposes normality as a solution to this problem, but its existing implementations are challenging to scale to complex and continuous-valued RL environments. This paper introduces functional actual cause (FAC), a framework that uses context-specific independencies in the environment to restrict the set of actual causes. We additionally introduce Joint Optimization for Actual Cause Inference (JACI), an algorithm that learns from observational data to infer functional actual causes. We demonstrate empirically that FAC agrees with known results on a suite of examples from the actual causality literature, and JACI identifies actual causes with significantly higher accuracy than existing heuristic methods in a set of complex, continuous-valued environments.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)アルゴリズムは、因果的混乱、無関係な要因への過度な適合、状態要因の制御の分離の失敗などの問題により、新しい状況に一般化する政策を学ぶのに苦労することが多い。
これらの問題は、環境における状態固有の因果関係を正確に識別し、活用できないという共通の情報源に由来する。
RLにおけるいくつかの先行研究はこれらの関係を明確に識別することを目的としているが、それらは空間的・時間的近接のような非公式な領域固有のヒューリスティックに依存している。
実際の因果関係は、特定の出来事の原因を決定するための原則的で一般的な枠組みを提供する。
しかし、実際の原因に関する既存の定義は、多くの場合、多くの事象が結果にほとんど影響を与えないとしても、因果関係に起因している。
実際の因果性に関する以前の研究は、この問題に対する解決策として正規性を提案するが、既存の実装は複雑で連続的なRL環境にスケールすることが困難である。
本稿では,機能的現実原因 (FAC) について紹介する。
さらに、観測データから関数的原因を推測するアルゴリズムであるJACI(Joint Optimization for Actual Cause Inference)を導入する。
JACIは、複雑で連続的な評価環境において、既存のヒューリスティックな手法よりもはるかに高い精度で、実際の原因を特定する。
関連論文リスト
- New Rules for Causal Identification with Background Knowledge [59.733125324672656]
オープンな問題に対する新たな視点を提供するBKを導入するための2つの新しいルールを提案する。
これらのルールは、観測データによる因果効果のセットを決定するなど、典型的な因果関係のタスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-21T20:21:21Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Causal Representation Learning Made Identifiable by Grouping of Observational Variables [8.157856010838382]
因果表現学習(Causal Representation Learning)は、データ駆動型で隠れた機能の因果モデルを学ぶことを目的としている。
ここでは、新規で弱い制約に基づく識別可能性を示す。
また,モデルに整合した新たな自己教師付き推定フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T10:38:02Z) - A Survey on Causal Discovery: Theory and Practice [2.741266294612776]
因果推論は、原因とその影響を結びつける基礎となる関係を定量化するように設計されている。
本稿では,最近の進歩を統一的に検討し,既存のアルゴリズムを一貫した概要を提供し,有用なツールやデータを報告する。
論文 参考訳(メタデータ) (2023-05-17T08:18:56Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Causal Inference Principles for Reasoning about Commonsense Causality [93.19149325083968]
コモンセンス因果推論(Commonsense causality reasoning)は、平均的な人によって妥当と見なされる自然言語記述における妥当な原因と影響を特定することを目的としている。
既存の作業は通常、深い言語モデルに全面的に依存しており、共起を混同する可能性がある。
古典的因果原理に触発され,我々はCCRの中心的問題を明確にし,観察研究と自然言語における人間の対象間の類似性を引き出す。
本稿では,時間信号をインシデント・インシデント・インシデント・インシデント・インシデントとして活用する新しいフレームワークであるROCKをReason O(A)bout Commonsense K(C)ausalityに提案する。
論文 参考訳(メタデータ) (2022-01-31T06:12:39Z) - Causal Relational Learning [29.082088734252213]
因果的背景知識と仮定を捉えるために,CaRLという宣言型言語を提案する。
CaRLは、関係ドメインにおける複雑な介入の影響を因果関係と推論する基盤を提供する。
論文 参考訳(メタデータ) (2020-04-07T18:33:05Z) - Invariant Causal Prediction for Block MDPs [106.63346115341862]
環境全体にわたる一般化は、実世界の課題への強化学習アルゴリズムの適用の成功に不可欠である。
本稿では,多環境環境における新しい観測を一般化するモデル不適合状態抽象化(MISA)を学習するための不変予測法を提案する。
論文 参考訳(メタデータ) (2020-03-12T21:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。