論文の概要: The role of causality in explainable artificial intelligence
- arxiv url: http://arxiv.org/abs/2309.09901v1
- Date: Mon, 18 Sep 2023 16:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:31:15.049060
- Title: The role of causality in explainable artificial intelligence
- Title(参考訳): 説明可能な人工知能における因果関係の役割
- Authors: Gianluca Carloni, Andrea Berti, Sara Colantonio
- Abstract要約: 因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
- 参考スコア(独自算出の注目度): 1.049712834719005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causality and eXplainable Artificial Intelligence (XAI) have developed as
separate fields in computer science, even though the underlying concepts of
causation and explanation share common ancient roots. This is further enforced
by the lack of review works jointly covering these two fields. In this paper,
we investigate the literature to try to understand how and to what extent
causality and XAI are intertwined. More precisely, we seek to uncover what
kinds of relationships exist between the two concepts and how one can benefit
from them, for instance, in building trust in AI systems. As a result, three
main perspectives are identified. In the first one, the lack of causality is
seen as one of the major limitations of current AI and XAI approaches, and the
"optimal" form of explanations is investigated. The second is a pragmatic
perspective and considers XAI as a tool to foster scientific exploration for
causal inquiry, via the identification of pursue-worthy experimental
manipulations. Finally, the third perspective supports the idea that causality
is propaedeutic to XAI in three possible manners: exploiting concepts borrowed
from causality to support or improve XAI, utilizing counterfactuals for
explainability, and considering accessing a causal model as explaining itself.
To complement our analysis, we also provide relevant software solutions used to
automate causal tasks. We believe our work provides a unified view of the two
fields of causality and XAI by highlighting potential domain bridges and
uncovering possible limitations.
- Abstract(参考訳): 因果関係とeXplainable Artificial Intelligence(XAI)は、因果関係と説明の基本的な概念が共通の古代のルーツを共有しているにもかかわらず、コンピュータ科学の別の分野として発展した。
これは、これらの2つの分野を共同でカバーするレビュー作業の欠如によってさらに強化される。
本稿では,XAIと因果関係がどの程度の程度に絡み合っているかを理解するために,文献を調査する。
より正確には、私たちは2つの概念の間にどのような関係があるのか、そして、aiシステムに対する信頼を構築する際にどのようにそれらから利益を得るのかを明らかにすることを目指している。
結果として、3つの主要な視点が特定される。
第一に、因果関係の欠如は、現在のAIとXAIアプローチの大きな限界の一つと見なされ、最適な"説明の形式が研究されている。
2つ目は実践的な視点であり、XAIは、追求に値する実験操作の識別を通じて、因果探究のための科学的探索を促進するツールであると考えている。
最後に、第3の視点は、因果関係から借用された概念を活用して、XAIを支援したり、改善したりするという3つの可能な方法で、因果関係がXAIに伝播するという考えを支持する。
分析を補完するため、因果タスクの自動化に使用される関連するソフトウェアソリューションも提供します。
私たちは、潜在的なドメインブリッジを強調し、潜在的な制限を明らかにすることによって、因果関係とXAIの2つの分野を統一的に見ることができます。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Understanding XAI Through the Philosopher's Lens: A Historical Perspective [5.839350214184222]
論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
論文 参考訳(メタデータ) (2024-07-26T14:44:49Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Causality-Inspired Taxonomy for Explainable Artificial Intelligence [10.241230325171143]
本稿では,xAI アプローチ開発のための環境を創出する,xAI の因果性に着想を得た新しいフレームワークを提案する。
バイオメトリック・モダリティとタスクの多様さに関する81の研究論文を分析した。
論文 参考訳(メタデータ) (2022-08-19T18:26:35Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Towards Causal Representation Learning [96.110881654479]
機械学習とグラフィカル因果関係の2つの分野が生まれ、別々に発展した。
現在、他分野の進歩の恩恵を受けるために、クロスポリン化と両方の分野への関心が高まっている。
論文 参考訳(メタデータ) (2021-02-22T15:26:57Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。