論文の概要: XInsight: eXplainable Data Analysis Through The Lens of Causality
- arxiv url: http://arxiv.org/abs/2207.12718v1
- Date: Tue, 26 Jul 2022 08:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:20:03.620038
- Title: XInsight: eXplainable Data Analysis Through The Lens of Causality
- Title(参考訳): xinsight: 因果レンズによる説明可能なデータ分析
- Authors: Pingchuan Ma, Rui Ding, Shuai Wang, Shi Han, Dongmei Zhang
- Abstract要約: この研究は、eXplainable Data Analysis (XDA)と呼ばれる、データ分析における透明で説明可能な視点を初めて促進する。
XDAは、因果的意味論と非因果的意味論の質的、定量的な説明を伴うデータ分析を提供する。
このようにして、XDAは、データ分析の結果に対する人間の理解と信頼を著しく改善する。
- 参考スコア(独自算出の注目度): 39.785122292185825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In light of the growing popularity of Exploratory Data Analysis (EDA),
understanding the underlying causes of the knowledge acquired by EDA is
crucial, but remains under-researched. This study promotes for the first time a
transparent and explicable perspective on data analysis, called eXplainable
Data Analysis (XDA). XDA provides data analysis with qualitative and
quantitative explanations of causal and non-causal semantics. This way, XDA
will significantly improve human understanding and confidence in the outcomes
of data analysis, facilitating accurate data interpretation and decision-making
in the real world. For this purpose, we present XInsight, a general framework
for XDA. XInsight is a three-module, end-to-end pipeline designed to extract
causal graphs, translate causal primitives into XDA semantics, and quantify the
quantitative contribution of each explanation to a data fact. XInsight uses a
set of design concepts and optimizations to address the inherent difficulties
associated with integrating causality into XDA. Experiments on synthetic and
real-world datasets as well as human evaluations demonstrate the highly
promising capabilities of XInsight.
- Abstract(参考訳): 探索データ分析(EDA)の人気が高まりつつあることを踏まえ、EDAが取得した知識の根本原因を理解することは重要であるが、未調査のままである。
この研究は、eXplainable Data Analysis (XDA)と呼ばれる、データ分析における透明で説明可能な視点を初めて促進する。
xdaは因果意味論と非因果意味論の質的かつ定量的な説明を伴うデータ分析を提供する。
このようにして、XDAは、データ分析の結果に対する人間の理解と信頼を著しく改善し、実世界の正確なデータ解釈と意思決定を促進する。
そこで本稿では,XDAの汎用フレームワークであるXInsightを紹介する。
XInsightは、因果グラフを抽出し、因果プリミティブをXDAセマンティクスに変換し、各説明の量的寄与をデータ事実に定量化するように設計された3つのモジュールのエンドツーエンドパイプラインである。
XInsightは設計概念と最適化のセットを使用して、XDAへの因果関係の統合に関連する固有の問題に対処する。
合成および実世界のデータセットと人間の評価に関する実験は、xinsightの非常に有望な能力を示している。
関連論文リスト
- Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - CALIME: Causality-Aware Local Interpretable Model-Agnostic Explanations [9.339341973173804]
本稿では,XAI手法に因果知識を統合することで,信頼性を高め,ユーザが説明の質を評価することを支援することに焦点を当てる。
本稿では、入力インスタンスの周辺で生成されたデータに因果関係を明示的にエンコードして説明する、広く使われている局所的およびモデルに依存しない説明器の新たな拡張を提案する。
論文 参考訳(メタデータ) (2022-12-10T10:12:27Z) - Do Deep Neural Networks Always Perform Better When Eating More Data? [82.6459747000664]
Identically Independent Distribution(IID)とOut of Distribution(OOD)による実験を設計する。
IID条件下では、情報の量は各サンプルの効果度、サンプルの寄与度、クラス間の差がクラス情報の量を決定する。
OOD条件下では、試料のクロスドメイン度が寄与を決定づけ、無関係元素によるバイアス適合はクロスドメインの重要な要素である。
論文 参考訳(メタデータ) (2022-05-30T15:40:33Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Categorical exploratory data analysis on goodness-of-fit issues [0.6091702876917279]
我々はCategorical Exploratory Data Analysis (CEDA)と呼ばれるデータ分析パラダイムを活用することを提案する。
CEDAは、複数の重要な分散的な側面を通じて、各データがモデル形状に適合するか、どのように一致するかを明らかにします。
我々は,CEDAをデータサイエンス教育におけるデータ分析の第一の方法として活用することの利点を,グラフィック表示により明らかにする。
論文 参考訳(メタデータ) (2020-11-19T06:11:06Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z) - Explainable Artificial Intelligence Based Fault Diagnosis and Insight
Harvesting for Steel Plates Manufacturing [0.0]
本研究は,高精度分類器の開発におけるデータサイエンスのプロセスに対するXAIに基づく洞察を取り入れた方法論について報告する。
Ceteris Peribusプロファイル、Partial Dependenceプロファイル、Breakdownプロファイルが取得されている。
すべての洞察を単一のアンサンブル分類器に組み込んだ10倍のクロス検証性能が94%で達成された。
論文 参考訳(メタデータ) (2020-08-10T23:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。