論文の概要: Categorical Foundations of Explainable AI: A Unifying Formalism of
Structures and Semantics
- arxiv url: http://arxiv.org/abs/2304.14094v1
- Date: Thu, 27 Apr 2023 11:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:48:52.961957
- Title: Categorical Foundations of Explainable AI: A Unifying Formalism of
Structures and Semantics
- Title(参考訳): 説明可能なAIの分類的基礎:構造と意味論の形式主義の統合
- Authors: Pietro Barbiero, Stefano Fioravanti, Francesco Giannini, Alberto
Tonda, Pietro Lio, Elena Di Lavore
- Abstract要約: 本論文は,XAIの統一理論を定式化し,このギャップを埋める最初の試みである。
まず、説明可能なAIにおいて、すべての必須用語について公式な定義を提供する。
次に,提案した構造に従う分野の分類法を提案する。
- 参考スコア(独自算出の注目度): 2.3634857272168612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) aims to answer ethical and legal questions associated
with the deployment of AI models. However, a considerable number of
domain-specific reviews highlight the need of a mathematical foundation for the
key notions in the field, considering that even the term "explanation" still
lacks a precise definition. These reviews also advocate for a sound and
unifying formalism for explainable AI, to avoid the emergence of ill-posed
questions, and to help researchers navigate a rapidly growing body of
knowledge. To the authors knowledge, this paper is the first attempt to fill
this gap by formalizing a unifying theory of XAI. Employing the framework of
category theory, and feedback monoidal categories in particular, we first
provide formal definitions for all essential terms in explainable AI. Then we
propose a taxonomy of the field following the proposed structure, showing how
the introduced theory can be used to categorize all the main classes of XAI
systems currently studied in literature. In summary, the foundation of XAI
proposed in this paper represents a significant tool to properly frame future
research lines, and a precious guidance for new researchers approaching the
field.
- Abstract(参考訳): 説明可能なAI(XAI)は、AIモデルの展開に関連する倫理的および法的問題に答えることを目的としている。
しかし、多くのドメイン固有のレビューは、「説明」という用語でさえ正確な定義が欠けていることを考慮し、この分野の重要な概念に対する数学的基礎の必要性を強調している。
これらのレビューはまた、説明可能なAIのための健全で統一的な形式主義を提唱し、不適切な質問の出現を避け、研究者が急速に成長する知識の体系をナビゲートする手助けをする。
本論文は,xaiの統一理論を定式化することで,このギャップを埋める最初の試みである。
カテゴリー論の枠組み、特にフィードバックモノイド圏を用いて、まず説明可能なAIにおけるすべての必須用語について公式な定義を提供する。
そこで本研究では,本研究で現在研究されているXAIシステムの主要クラスをすべて分類するために,導入理論を用いて,その分野の分類法を提案する。
要約して,本論文で提案されているXAIの基礎は,今後の研究線を適切に構築するための重要なツールであり,新たな研究者がこの分野に近づくための重要なガイダンスである。
関連論文リスト
- A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Non-Axiomatic Term Logic: A Computational Theory of Cognitive Symbolic
Reasoning [3.344997561878685]
非軸性項論理(非軸性項論理、Non-Axiomatic Term Logic、NATL)は、人工知能における人間のような記号的推論の理論的計算フレームワークである。
NATLは、アリストテレスの項論理から着想を得た離散構文体系と、分散表現の現代的な考え方に基づく連続意味体系を結合する。
論文 参考訳(メタデータ) (2022-10-12T15:31:35Z) - Scientific Explanation and Natural Language: A Unified
Epistemological-Linguistic Perspective for Explainable AI [2.7920304852537536]
本稿では,理論と実践のギャップを科学的説明の概念に埋めることを目的として,科学的領域に焦点を当てた。
定量的および定性的手法の混合により、本研究では以下の主要な結論を導出することができる。
論文 参考訳(メタデータ) (2022-05-03T22:31:42Z) - Mesarovician Abstract Learning Systems [0.0]
学習への現在のアプローチは、根本的な規範として問題領域と課題タスクの概念を持っている。
メサロビアン抽象システム理論は学習の超構造として用いられる。
論文 参考訳(メタデータ) (2021-11-29T18:17:32Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Abstraction, Validation, and Generalization for Explainable Artificial
Intelligence [5.142415132534397]
この課題に答えるためにAIを説明する方法が提案されているが、理論の欠如は体系的な抽象化の開発を妨げる。
機械学習と人間学習を統合することで、説明可能なAI(XAI)を統一する枠組みとしてベイズ教育を提案します。
論文 参考訳(メタデータ) (2021-05-16T20:40:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。