論文の概要: Categorical Foundations of Explainable AI: A Unifying Formalism of
Structures and Semantics
- arxiv url: http://arxiv.org/abs/2304.14094v1
- Date: Thu, 27 Apr 2023 11:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:48:52.961957
- Title: Categorical Foundations of Explainable AI: A Unifying Formalism of
Structures and Semantics
- Title(参考訳): 説明可能なAIの分類的基礎:構造と意味論の形式主義の統合
- Authors: Pietro Barbiero, Stefano Fioravanti, Francesco Giannini, Alberto
Tonda, Pietro Lio, Elena Di Lavore
- Abstract要約: 本論文は,XAIの統一理論を定式化し,このギャップを埋める最初の試みである。
まず、説明可能なAIにおいて、すべての必須用語について公式な定義を提供する。
次に,提案した構造に従う分野の分類法を提案する。
- 参考スコア(独自算出の注目度): 2.3634857272168612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) aims to answer ethical and legal questions associated
with the deployment of AI models. However, a considerable number of
domain-specific reviews highlight the need of a mathematical foundation for the
key notions in the field, considering that even the term "explanation" still
lacks a precise definition. These reviews also advocate for a sound and
unifying formalism for explainable AI, to avoid the emergence of ill-posed
questions, and to help researchers navigate a rapidly growing body of
knowledge. To the authors knowledge, this paper is the first attempt to fill
this gap by formalizing a unifying theory of XAI. Employing the framework of
category theory, and feedback monoidal categories in particular, we first
provide formal definitions for all essential terms in explainable AI. Then we
propose a taxonomy of the field following the proposed structure, showing how
the introduced theory can be used to categorize all the main classes of XAI
systems currently studied in literature. In summary, the foundation of XAI
proposed in this paper represents a significant tool to properly frame future
research lines, and a precious guidance for new researchers approaching the
field.
- Abstract(参考訳): 説明可能なAI(XAI)は、AIモデルの展開に関連する倫理的および法的問題に答えることを目的としている。
しかし、多くのドメイン固有のレビューは、「説明」という用語でさえ正確な定義が欠けていることを考慮し、この分野の重要な概念に対する数学的基礎の必要性を強調している。
これらのレビューはまた、説明可能なAIのための健全で統一的な形式主義を提唱し、不適切な質問の出現を避け、研究者が急速に成長する知識の体系をナビゲートする手助けをする。
本論文は,xaiの統一理論を定式化することで,このギャップを埋める最初の試みである。
カテゴリー論の枠組み、特にフィードバックモノイド圏を用いて、まず説明可能なAIにおけるすべての必須用語について公式な定義を提供する。
そこで本研究では,本研究で現在研究されているXAIシステムの主要クラスをすべて分類するために,導入理論を用いて,その分野の分類法を提案する。
要約して,本論文で提案されているXAIの基礎は,今後の研究線を適切に構築するための重要なツールであり,新たな研究者がこの分野に近づくための重要なガイダンスである。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Abstraction, Validation, and Generalization for Explainable Artificial
Intelligence [5.142415132534397]
この課題に答えるためにAIを説明する方法が提案されているが、理論の欠如は体系的な抽象化の開発を妨げる。
機械学習と人間学習を統合することで、説明可能なAI(XAI)を統一する枠組みとしてベイズ教育を提案します。
論文 参考訳(メタデータ) (2021-05-16T20:40:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。