論文の概要: Can Causality Cure Confusion Caused By Correlation (in Software Analytics)?
- arxiv url: http://arxiv.org/abs/2602.16091v1
- Date: Tue, 17 Feb 2026 23:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.469213
- Title: Can Causality Cure Confusion Caused By Correlation (in Software Analytics)?
- Title(参考訳): 相関(ソフトウェア分析)による因果関係の縮退は可能か?
- Authors: Amirali Rayegan, Tim Menzies,
- Abstract要約: シンボリックモデル、特に決定木は、説明可能な分析のためにソフトウェア工学で広く使われている。
ソフトウェア工学における最近の研究は、相関モデルと因果発見アルゴリズムの両方が明らかな不安定性に悩まされていることを示している。
本研究では,因果関係を意識した分類基準を,その安定性と堅牢性を改善するための象徴的モデルに分割する。
- 参考スコア(独自算出の注目度): 4.082216579462797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Symbolic models, particularly decision trees, are widely used in software engineering for explainable analytics in defect prediction, configuration tuning, and software quality assessment. Most of these models rely on correlational split criteria, such as variance reduction or information gain, which identify statistical associations but cannot imply causation between X and Y. Recent empirical studies in software engineering show that both correlational models and causal discovery algorithms suffer from pronounced instability. This instability arises from two complementary issues: 1-Correlation-based methods conflate association with causation. 2-Causal discovery algorithms rely on heuristic approximations to cope with the NP-hard nature of structure learning, causing their inferred graphs to vary widely under minor input perturbations. Together, these issues undermine trust, reproducibility, and the reliability of explanations in real-world SE tasks. Objective: This study investigates whether incorporating causality-aware split criteria into symbolic models can improve their stability and robustness, and whether such gains come at the cost of predictive or optimization performance. We additionally examine how the stability of human expert judgments compares to that of automated models. Method: Using 120+ multi-objective optimization tasks from the MOOT repository of multi-objective optimization tasks, we evaluate stability through a preregistered bootstrap-ensemble protocol that measures variance with win-score assignments. We compare the stability of human causal assessments with correlation-based decision trees (EZR). We would also compare the causality-aware trees, which leverage conditional-entropy split criteria and confounder filtering. Stability and performance differences are analyzed using statistical methods (variance, Gini Impurity, KS test, Cliff's delta)
- Abstract(参考訳): 背景: シンボリックモデル、特に決定木は、欠陥予測、構成調整、ソフトウェア品質評価における説明可能な分析のために、ソフトウェア工学で広く使われている。
ソフトウェア工学における最近の実証的研究は、相関モデルと因果発見アルゴリズムの両方が不安定性の顕著さに悩まされていることを示している。
この不安定性は2つの相補的な問題から生じる。
2-Causal発見アルゴリズムは、構造学習のNPハードな性質に対処するため、ヒューリスティックな近似に頼っている。
これらの課題は共に、現実のSEタスクにおける信頼性、再現性、説明の信頼性を損なう。
目的: 本研究は, 因果性を考慮した分割基準を記号モデルに組み込むことで, 安定性とロバスト性を向上させることができるか, 予測性能や最適化性能の犠牲となるかを検討する。
さらに、人間の専門家による判断の安定性が、自動モデルの安定性とどのように比較されるかについても検討する。
方法: 複数目的最適化タスクのMOOTリポジトリからの120以上の多目的最適化タスクを用いて, 予め登録したブートストラップ・アンサンブルプロトコルを用いて安定性を評価する。
本研究では,人間の因果評価の安定性を相関に基づく決定木(EZR)と比較する。
また、条件付きエントロピー分割基準と共創者フィルタリングを利用した因果認識木を比較した。
統計的手法(分散、ジーニ不純物、KS試験、クリフデルタ)による安定性と性能差の解析
関連論文リスト
- STAR : Bridging Statistical and Agentic Reasoning for Large Model Performance Prediction [78.0692157478247]
本稿では,知識駆動型エージェント推論を用いて,データ駆動型静的予測を橋渡しするフレームワークSTARを提案する。
STARはスコアベースとランクベースの両方の基準線を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-02-12T16:30:07Z) - ARISE: An Adaptive Resolution-Aware Metric for Test-Time Scaling Evaluation in Large Reasoning Models [102.4511331368587]
ARISE(Adaptive Resolution-Aware Scaling Evaluation)は、大規模推論モデルの試験時間スケーリングの有効性を評価するために設計された新しい尺度である。
我々は、様々な領域にわたる最先端の推論モデルを評価する包括的な実験を行う。
論文 参考訳(メタデータ) (2025-10-07T15:10:51Z) - Probabilistic causal graphs as categorical data synthesizers: Do they do better than Gaussian Copulas and Conditional Tabular GANs? [0.0]
本研究では,因果グラフモデルを用いて,調査データなどの高品質な合成分類データの生成について検討する。
障害者サービスへのアクセシビリティ調査に基づくカテゴリーデータを用いた。
我々は、因果関係を表現し、変数間の結合分布を捉えるために、SEMモデルとBNモデルの両方を作成しました。
論文 参考訳(メタデータ) (2025-04-15T18:41:54Z) - An AI-powered Bayesian generative modeling approach for causal inference in observational studies [4.4876925770439415]
CausalBGMはAIを利用したベイズ生成モデリングアプローチである。
低次元潜在特徴集合の個別分布を学習することにより、個別処理効果(ITE)を推定する。
論文 参考訳(メタデータ) (2025-01-01T06:52:45Z) - A Neural Framework for Generalized Causal Sensitivity Analysis [78.71545648682705]
本稿では,因果感受性分析のためのニューラルネットワークフレームワークであるNeuralCSAを提案する。
我々は、NeuralCSAが関心の因果クエリに有効な境界を推測できることを理論的に保証する。
論文 参考訳(メタデータ) (2023-11-27T17:40:02Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。