論文の概要: The Cause of Causal Emergence: Redistribution of Uncertainty
- arxiv url: http://arxiv.org/abs/2212.01551v1
- Date: Sat, 3 Dec 2022 06:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:45:56.533418
- Title: The Cause of Causal Emergence: Redistribution of Uncertainty
- Title(参考訳): 因果発生の原因:不確実性の再分配
- Authors: Liye Jia, Cong Zhou, Ka Lok Man, Sheng-Uei Guan, Jeremy Smith, Yutao
Yue
- Abstract要約: 複雑なシステムの効果的な情報表現を構築するためには,適切なスケールを選択することが不可欠である。
粗粒化によって因果関係が生じる現象を因果発芽(Causal Emergence,CE)という。
粗粒化における不確実性の再分配を定量的に分析し,不確実性の再分配が因果発生の原因であることを示唆した。
- 参考スコア(独自算出の注目度): 2.4704402721042253
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is crucial to choose the appropriate scale in order to build an effective
and informational representation of a complex system. Scientists carefully
choose the scales for their experiments to extract the variables that describe
the causalities in the system. They found that the coarse scale(macro) is
sometimes more causal and informative than the numerous-parameter
observations(micro). The phenomenon that the causality emerges by
coarse-graining is called Causal Emergence(CE). Based on information theory, a
number of recent works quantitatively showed that CE indeed happens while
coarse-graining a micro model to the macro. However, the existing works have
not discussed the question of why and when the CE happens. We quantitatively
analyze the redistribution of uncertainties for coarse-graining and suggest
that the redistribution of uncertainties is the cause of causal emergence. We
further analyze the thresholds that determine if CE happens or not. From the
regularity of the transition probability matrix(TPM) of discrete systems, the
mathematical expressions of the model properties are derived. The values of
thresholds for different operations are computed. The results provide the
critical and specific conditions of CE as helpful suggestions for choosing the
proper coarse-graining operation. The results also provided a new way to better
understand the nature of causality and causal emergence.
- Abstract(参考訳): 複雑なシステムの効果的な情報表現を構築するためには,適切なスケールを選択することが不可欠である。
科学者は実験のスケールを慎重に選び、システムの因果関係を記述する変数を抽出します。
彼らは、粗いスケール(macro)は、多パラメータ観測(micro)よりも因果的かつ情報的であることを発見した。
粗粒化によって因果性が出現する現象を因果発生(ce)と呼ぶ。
情報理論に基づいて、最近の多くの研究は、CEがマクロにマイクロモデルを粗粒化しながら実際に起こることを定量的に示した。
しかし、既存の作品ではceがなぜいつ起こるのかという疑問は議論されていない。
粗粒化のための不確かさの再分布を定量的に解析し,不確かさの再分布が原因であることが示唆された。
さらに、CEの発生の有無を決定するしきい値を分析する。
離散系の遷移確率行列(TPM)の正則性から、モデル特性の数学的表現が導出される。
異なる演算に対するしきい値の値は計算される。
その結果,CEの重要かつ特異な条件は,適切な粗粒化操作を選択する上で有用であると考えられた。
結果はまた、因果関係と因果発生の性質をよりよく理解する新しい方法も提供した。
関連論文リスト
- Fundamental Properties of Causal Entropy and Information Gain [0.22252684361733285]
最近の進歩は、構造因果モデル(SCM)による因果制御の定量化を可能にする
因果的エントロピーと因果的情報ゲインと名付けられた尺度は、因果性が重要な役割を果たす機械学習タスクに対する既存の情報理論的アプローチの限界に対処することを目的としている。
論文 参考訳(メタデータ) (2024-02-02T11:55:57Z) - Targeted Reduction of Causal Models [19.95147976128033]
因果機械学習は、シミュレーションにおける因果関係の関連性および解釈可能なパターンの発見に科学者を支援する可能性がある。
本稿では、複雑なモデルを特定の目標現象を説明するための簡潔な要因のセットに変換する方法であるTCR(Targeted Causal Reduction)を紹介する。
論文 参考訳(メタデータ) (2023-11-30T15:46:22Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - High Fidelity Image Counterfactuals with Probabilistic Causal Models [25.87025672100077]
深部構造因果モデルを用いた高忠実度画像反事実の正確な推定のための因果生成モデルフレームワークを提案する。
我々は、因果媒介分析のアイデアと生成モデリングの進歩を活用し、因果モデルにおける構造変数の新しい深い因果機構を設計する。
論文 参考訳(メタデータ) (2023-06-27T19:28:41Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Evaluation of Induced Expert Knowledge in Causal Structure Learning by
NOTEARS [1.5469452301122175]
非パラメトリックNOTEARSモデルの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響について検討する。
その結果, (i) NOTEARSモデルの誤りを正す知識は, 統計的に有意な改善をもたらすこと, (ii) アクティブエッジに対する制約は, 非アクティブエッジよりも因果発見に肯定的な影響を与えること, (iii) 意外なことに, (iii) 誘導された知識は, 平均的な不正確なアクティブエッジおよび/または非アクティブエッジに対して予想以上に正確でないことが判明した。
論文 参考訳(メタデータ) (2023-01-04T20:39:39Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Visual Causality Analysis of Event Sequence Data [32.74361488457415]
イベントシーケンスデータの因果関係を復元する視覚解析手法を提案する。
我々は,Hawkesプロセス上のGranger因果解析アルゴリズムを拡張し,ユーザフィードバックを因果モデルの改良に組み込む。
論文 参考訳(メタデータ) (2020-09-01T04:28:28Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。