論文の概要: ACRE: Abstract Causal REasoning Beyond Covariation
- arxiv url: http://arxiv.org/abs/2103.14232v1
- Date: Fri, 26 Mar 2021 02:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:59:59.064918
- Title: ACRE: Abstract Causal REasoning Beyond Covariation
- Title(参考訳): ACRE: 共変以外の抽象因果推論
- Authors: Chi Zhang, Baoxiong Jia, Mark Edmonds, Song-Chun Zhu, Yixin Zhu
- Abstract要約: 因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
- 参考スコア(独自算出の注目度): 90.99059920286484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal induction, i.e., identifying unobservable mechanisms that lead to the
observable relations among variables, has played a pivotal role in modern
scientific discovery, especially in scenarios with only sparse and limited
data. Humans, even young toddlers, can induce causal relationships surprisingly
well in various settings despite its notorious difficulty. However, in contrast
to the commonplace trait of human cognition is the lack of a diagnostic
benchmark to measure causal induction for modern Artificial Intelligence (AI)
systems. Therefore, in this work, we introduce the Abstract Causal REasoning
(ACRE) dataset for systematic evaluation of current vision systems in causal
induction. Motivated by the stream of research on causal discovery in Blicket
experiments, we query a visual reasoning system with the following four types
of questions in either an independent scenario or an interventional scenario:
direct, indirect, screening-off, and backward-blocking, intentionally going
beyond the simple strategy of inducing causal relationships by covariation. By
analyzing visual reasoning architectures on this testbed, we notice that pure
neural models tend towards an associative strategy under their chance-level
performance, whereas neuro-symbolic combinations struggle in backward-blocking
reasoning. These deficiencies call for future research in models with a more
comprehensive capability of causal induction.
- Abstract(参考訳): 因果誘導(英: Causal induction)、すなわち変数間の観測不可能な関係につながる観測不可能なメカニズムを特定することは、現代の科学的発見において重要な役割を担っている。
人間は、若い幼児でさえ、その悪名高い困難にもかかわらず、様々な環境で驚くほど因果関係を誘導することができる。
しかし、人間の認識の共通する特性とは対照的に、現代の人工知能(AI)システムの因果誘導を測定するための診断ベンチマークが欠如している。
そこで本研究では、因果誘導における現在の視覚システムの体系的評価のための抽象因果推論(ACRE)データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオまたは介入シナリオ(直接、間接、スクリーニングオフ、後方ブロック)において、視覚的推論システムに以下の4種類の質問をクエリし、共変による因果関係を誘導する単純な戦略を意図的に超越する。
このテストベッド上で視覚的推論アーキテクチャを解析することにより、純粋なニューラルモデルが確率レベルのパフォーマンスの下で連想戦略に向かう傾向にあるのに対して、ニューロシンボリックな組み合わせは後方ブロック推論に苦しむことに気づく。
これらの欠陥は、因果誘導のより包括的な能力を持つモデルにおける将来の研究を呼び起こす。
関連論文リスト
- Missed Causes and Ambiguous Effects: Counterfactuals Pose Challenges for Interpreting Neural Networks [14.407025310553225]
解釈可能性の研究は、当然のことながら因果関係の反事実理論を採っている。
反事実理論は、我々の発見を具体的かつ予測可能な方法でバイアスする問題を持っている。
本稿では,これらの課題が解釈可能性研究者に与える影響について論じる。
論文 参考訳(メタデータ) (2024-07-05T17:53:03Z) - Emergence and Causality in Complex Systems: A Survey on Causal Emergence
and Related Quantitative Studies [12.78006421209864]
因果発生理論は出現を定量化するために因果関係の尺度を用いる。
因果の出現を定量化し、データを識別する。
因果表現学習,因果モデル抽象化,世界モデルに基づく強化学習によって,因果表現の出現を識別するアーキテクチャが共有されることを強調した。
論文 参考訳(メタデータ) (2023-12-28T04:20:46Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Causal reasoning in typical computer vision tasks [11.95181390654463]
因果理論は、データバイアスの影響を受けない本質的な因果構造をモデル化し、突発的な相関を避けるのに有効である。
本稿では,一般的な視覚・視覚言語タスクにおける既存の因果的手法(セグメンテーション,オブジェクト検出,画像キャプションなど)を包括的にレビューすることを目的とする。
今後のロードマップも提案され、因果論の開発と他の複雑なシーンやシステムへの応用が促進される。
論文 参考訳(メタデータ) (2023-07-26T07:01:57Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。