論文の概要: XXAI: Explicitly Explainable AI provides transparency in automatic
decision-making by overcoming the limitations of symbolic AI
- arxiv url: http://arxiv.org/abs/2401.03093v3
- Date: Mon, 11 Mar 2024 12:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:52:47.500520
- Title: XXAI: Explicitly Explainable AI provides transparency in automatic
decision-making by overcoming the limitations of symbolic AI
- Title(参考訳): XXAI: 明示的な説明可能なAIは、象徴的AIの限界を克服することによって、自動意思決定における透明性を提供する
- Authors: V. L. Kalmykov, L.V. Kalmykov
- Abstract要約: サブシンボリックニューラルネットワークAIの信頼性と安全性には懸念がある。
我々は,決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIであるExplicitly Explainable AI (XXAI)を提案する。
XXAIは、ファイナルフェーズとトレーニングフェーズの両方で、サブシンボリックニューラルネットワークAI決定の信頼性、安全性、倫理性を自動的に検証することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are concerns about the reliability and safety of sub-symbolic neural
network AI because its decisions cannot be explained explicitly. This is the
black box problem of modern AI. At the same time, symbolic AI has the nature of
a white box and is able to ensure the reliability and safety of its decisions.
However, several problems prevent the widespread use of symbolic AI: the
opacity of mathematical models and natural language terms, the lack of a
unified ontology, and the combinatorial explosion of search capabilities. To
solve the black-box problem of AI, we propose Explicitly Explainable AI (XXAI)
- a fully transparent white-box AI based on deterministic logical cellular
automata whose rules are derived from the first principles of the general
theory of the relevant domain. In this case, the general theory of the domain
plays the role of a knowledge base for deriving the inferences of the cellular
automata. A cellular automaton implements parallel multi-level logical
inference at all levels of organization - from local interactions of the
element base to the system as a whole. Our verification of several ecological
hypotheses sets a precedent for the successful implementation of the proposed
solution. XXAI can automatically verify the reliability, safety, and ethicality
of sub-symbolic neural network AI decisions during both the final and training
phases. This paper presents the theoretical and methodological foundations for
creating XXAI and discusses the prospects for this direction.
- Abstract(参考訳): シンボリックニューラルネットワークaiの信頼性と安全性は、その決定が明確に説明できないため懸念されている。
これは現代のAIのブラックボックス問題である。
同時に、象徴的なAIは、ホワイトボックスの性質を持ち、その決定の信頼性と安全性を保証することができる。
しかし、いくつかの問題は、数学モデルと自然言語用語の不透明さ、統一オントロジーの欠如、探索能力の複合的爆発など、記号的AIの広範な使用を妨げる。
AIのブラックボックス問題を解決するために,決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIであるExplicitly Explainable AI (XXAI)を提案する。
この場合、ドメインの一般理論は、セルオートマトンの推定を導出するための知識ベースの役割を担っている。
セルオートマトンは、要素ベースの局所的な相互作用からシステム全体に至るまで、あらゆるレベルの組織で並列多レベル論理推論を実装している。
いくつかの生態仮説の検証は,提案手法の実装を成功させる前例となる。
XXAIは、ファイナルフェーズとトレーニングフェーズの両方で、サブシンボリックニューラルネットワークAI決定の信頼性、安全性、倫理性を自動的に検証することができる。
本稿では,XXAIを創出するための理論的・方法論的基盤について述べる。
関連論文リスト
- Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。