論文の概要: Causal Discovery and Classification Using Lempel-Ziv Complexity
- arxiv url: http://arxiv.org/abs/2411.01881v1
- Date: Mon, 04 Nov 2024 08:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:27:25.763446
- Title: Causal Discovery and Classification Using Lempel-Ziv Complexity
- Title(参考訳): Lempel-Ziv 複雑度を用いた因果発見と分類
- Authors: Dhruthi, Nithin Nagaraj, Harikrishnan N B,
- Abstract要約: 本稿では,Lempel-Ziv複雑性から導かれる新しい因果度尺度と距離計量を導入する。
因果決定木と距離決定木の有効性を評価する。
- 参考スコア(独自算出の注目度): 2.7309692684728617
- License:
- Abstract: Inferring causal relationships in the decision-making processes of machine learning algorithms is a crucial step toward achieving explainable Artificial Intelligence (AI). In this research, we introduce a novel causality measure and a distance metric derived from Lempel-Ziv (LZ) complexity. We explore how the proposed causality measure can be used in decision trees by enabling splits based on features that most strongly \textit{cause} the outcome. We further evaluate the effectiveness of the causality-based decision tree and the distance-based decision tree in comparison to a traditional decision tree using Gini impurity. While the proposed methods demonstrate comparable classification performance overall, the causality-based decision tree significantly outperforms both the distance-based decision tree and the Gini-based decision tree on datasets generated from causal models. This result indicates that the proposed approach can capture insights beyond those of classical decision trees, especially in causally structured data. Based on the features used in the LZ causal measure based decision tree, we introduce a causal strength for each features in the dataset so as to infer the predominant causal variables for the occurrence of the outcome.
- Abstract(参考訳): 機械学習アルゴリズムの意思決定プロセスにおける因果関係の推論は、説明可能な人工知能(AI)を実現するための重要なステップである。
本研究では,Lempel-Ziv (LZ) の複雑性から導かれる新しい因果度尺度と距離尺度を導入する。
本稿では,提案手法が決定木でどのように活用できるかを,最も強固に「textit{ because}」を示す特徴に基づいて検討する。
Gini不純物を用いた従来の決定木と比較して,因果決定木と距離決定木の有効性をさらに評価した。
提案手法は総合的な分類性能を示すが,因果関係に基づく決定木は,因果モデルから生成されたデータセットに対して,距離に基づく決定木とジーニに基づく決定木の両方を著しく上回っている。
この結果から,提案手法は古典的決定木,特に因果的に構造化されたデータを超えた洞察を捉えることが可能であることが示唆された。
LZ因果的尺度に基づく決定木で用いられる特徴に基づいて,各特徴について因果的強度を導入し,主な因果的変数を推定して結果を生成する。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - FoLDTree: A ULDA-Based Decision Tree Framework for Efficient Oblique Splits and Feature Selection [6.087464679182875]
LDATreeとFoldTreeは、Uncorrelated Linear Discriminant Analysis (ULDA)とForward ULDAを決定木構造に統合する。
LDATree と FoLDTree は軸直交およびその他の斜め決定木法より一貫して優れている。
論文 参考訳(メタデータ) (2024-10-30T16:03:51Z) - Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Divide, Conquer, Combine Bayesian Decision Tree Sampling [1.1879716317856945]
決定木は、その柔軟性と解釈可能性のために予測モデルとして一般的に使用される。
本稿では,ベイズ推定手法を用いて決定木予測の不確かさを定量化する。
論文 参考訳(メタデータ) (2024-03-26T23:14:15Z) - Construction of Decision Trees and Acyclic Decision Graphs from Decision
Rule Systems [0.0]
本稿では,決定木を構成する複雑さと決定木を表す非周期決定グラフについて考察する。
決定木全体を構築しない可能性について論じるが、与えられた入力に対して、この木で計算経路を記述する。
論文 参考訳(メタデータ) (2023-05-02T18:40:48Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。