論文の概要: XXAI: Explicitly Explainable AI provides transparency in automatic
decision-making by overcoming the limitations of symbolic AI
- arxiv url: http://arxiv.org/abs/2401.03093v3
- Date: Mon, 11 Mar 2024 12:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:52:47.500520
- Title: XXAI: Explicitly Explainable AI provides transparency in automatic
decision-making by overcoming the limitations of symbolic AI
- Title(参考訳): XXAI: 明示的な説明可能なAIは、象徴的AIの限界を克服することによって、自動意思決定における透明性を提供する
- Authors: V. L. Kalmykov, L.V. Kalmykov
- Abstract要約: サブシンボリックニューラルネットワークAIの信頼性と安全性には懸念がある。
我々は,決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIであるExplicitly Explainable AI (XXAI)を提案する。
XXAIは、ファイナルフェーズとトレーニングフェーズの両方で、サブシンボリックニューラルネットワークAI決定の信頼性、安全性、倫理性を自動的に検証することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are concerns about the reliability and safety of sub-symbolic neural
network AI because its decisions cannot be explained explicitly. This is the
black box problem of modern AI. At the same time, symbolic AI has the nature of
a white box and is able to ensure the reliability and safety of its decisions.
However, several problems prevent the widespread use of symbolic AI: the
opacity of mathematical models and natural language terms, the lack of a
unified ontology, and the combinatorial explosion of search capabilities. To
solve the black-box problem of AI, we propose Explicitly Explainable AI (XXAI)
- a fully transparent white-box AI based on deterministic logical cellular
automata whose rules are derived from the first principles of the general
theory of the relevant domain. In this case, the general theory of the domain
plays the role of a knowledge base for deriving the inferences of the cellular
automata. A cellular automaton implements parallel multi-level logical
inference at all levels of organization - from local interactions of the
element base to the system as a whole. Our verification of several ecological
hypotheses sets a precedent for the successful implementation of the proposed
solution. XXAI can automatically verify the reliability, safety, and ethicality
of sub-symbolic neural network AI decisions during both the final and training
phases. This paper presents the theoretical and methodological foundations for
creating XXAI and discusses the prospects for this direction.
- Abstract(参考訳): シンボリックニューラルネットワークaiの信頼性と安全性は、その決定が明確に説明できないため懸念されている。
これは現代のAIのブラックボックス問題である。
同時に、象徴的なAIは、ホワイトボックスの性質を持ち、その決定の信頼性と安全性を保証することができる。
しかし、いくつかの問題は、数学モデルと自然言語用語の不透明さ、統一オントロジーの欠如、探索能力の複合的爆発など、記号的AIの広範な使用を妨げる。
AIのブラックボックス問題を解決するために,決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIであるExplicitly Explainable AI (XXAI)を提案する。
この場合、ドメインの一般理論は、セルオートマトンの推定を導出するための知識ベースの役割を担っている。
セルオートマトンは、要素ベースの局所的な相互作用からシステム全体に至るまで、あらゆるレベルの組織で並列多レベル論理推論を実装している。
いくつかの生態仮説の検証は,提案手法の実装を成功させる前例となる。
XXAIは、ファイナルフェーズとトレーニングフェーズの両方で、サブシンボリックニューラルネットワークAI決定の信頼性、安全性、倫理性を自動的に検証することができる。
本稿では,XXAIを創出するための理論的・方法論的基盤について述べる。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Trustworthy XAI and Application [0.0]
本稿では、XAI、信頼性の高いXAI、信頼性の高いXAIの実用的利用について論じる。
我々は、この状況に関係があると判断した3つの主要なコンポーネント、透明性、説明可能性、信頼性を乗り越えます。
結局のところ、人間とAIシステム間の信頼の確立と維持には信頼性が不可欠である。
論文 参考訳(メタデータ) (2024-10-22T16:10:10Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。