論文の概要: Categorical Foundations of Explainable AI
- arxiv url: http://arxiv.org/abs/2304.14094v2
- Date: Fri, 19 May 2023 08:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 18:25:43.387640
- Title: Categorical Foundations of Explainable AI
- Title(参考訳): 説明可能なAIのカテゴリ基盤
- Authors: Pietro Barbiero, Stefano Fioravanti, Francesco Giannini, Alberto
Tonda, Pietro Lio, Elena Di Lavore
- Abstract要約: 本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)「説明」という用語を正式に定義し、(iii)「XAI」の理論的基盤を確立し、(iv)「説明方法」の見落としている側面を分析する。
- 参考スコア(独自算出の注目度): 2.3634857272168612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) aims to address the human need for safe and reliable AI
systems. However, numerous surveys emphasize the absence of a sound
mathematical formalization of key XAI notions -- remarkably including the term
``\textit{explanation}'' which still lacks a precise definition. To bridge this
gap, this paper presents the first mathematically rigorous definitions of key
XAI notions and processes, using the well-funded formalism of Category theory.
We show that our categorical framework allows to: (i) model existing learning
schemes and architectures, (ii) formally define the term ``explanation'', (iii)
establish a theoretical basis for XAI taxonomies, and (iv) analyze commonly
overlooked aspects of explaining methods. As a consequence, our categorical
framework promotes the ethical and secure deployment of AI technologies as it
represents a significant step towards a sound theoretical foundation of
explainable AI.
- Abstract(参考訳): 説明可能なAI(XAI)は、安全で信頼性の高いAIシステムに対する人間のニーズに対処することを目的としている。
しかし、多くの調査は、重要なxai概念の数学的形式化が存在しないことを強調している -- 注目すべきことに、まだ正確な定義が欠けている ``\textit{explanation}'' という用語が含まれている。
このギャップを埋めるため,本論文では,カテゴリ理論の十分に資金提供された形式的手法を用いて,キーxai概念と過程の数学的に厳密な定義を初めて提示する。
私たちの分類学的枠組みは
(i)既存の学習方法や建築をモデル化する。
(ii)「説明」の語を正式に定義する
(iii)xai分類の理論的根拠を定め、
(iv)説明方法の見過ごされた側面をよく分析する。
その結果、私たちの分類学的枠組みは、説明可能なAIの健全な理論的基盤に向けた重要なステップであるとして、倫理的かつ安全なAI技術の展開を促進する。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Abstraction, Validation, and Generalization for Explainable Artificial
Intelligence [5.142415132534397]
この課題に答えるためにAIを説明する方法が提案されているが、理論の欠如は体系的な抽象化の開発を妨げる。
機械学習と人間学習を統合することで、説明可能なAI(XAI)を統一する枠組みとしてベイズ教育を提案します。
論文 参考訳(メタデータ) (2021-05-16T20:40:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。