論文の概要: Explicitly explainable AI solution to the AI black box problem
- arxiv url: http://arxiv.org/abs/2401.03093v2
- Date: Wed, 6 Mar 2024 01:37:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 17:33:20.243690
- Title: Explicitly explainable AI solution to the AI black box problem
- Title(参考訳): AIブラックボックス問題に対する説明可能なAIソリューション
- Authors: V. L. Kalmykov, L.V. Kalmykov
- Abstract要約: 我々はこの問題を、透明な白い箱の性質を持つ象徴的AIを用いてどのように解決できるかを示す。
本稿では,関係領域の一般理論の第一原理に基づくルール付き決定論的論理セルオートマトンを提案する。
いくつかの生態仮説の検証は、ホワイトボックスAIの実装における成功例となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence based on neural networks has made significant
progress. However, there are concerns about the reliability and security of
this approach due to its lack of transparency. This is the black box problem of
AI. Here we show how this problem can be solved using symbolic AI, which has a
transparent white box nature. The widespread use of symbolic AI is hindered by
the opacity of mathematical models and natural language terms, the lack of a
unified ontology, and the combinatorial explosion of search options. To solve
the AI black box problem and to implement general-purpose symbolic AI, we
propose to use deterministic logic cellular automata with rules based on first
principles of the general theory of the relevant domain. In this case, the
general theory of the relevant domain plays the role of a knowledge base for
the cellular automaton inference. A cellular automaton implements automatic
parallel logical inference at three levels of organization of a complex system.
Our verification of several ecological hypotheses provides a successful
precedent for the implementation of white-box AI. Finally, we discuss a program
for creating a general-purpose symbolic AI capable of processing knowledge and
ensuring the reliability and safety of automated decisions.
- Abstract(参考訳): ニューラルネットワークに基づく人工知能は大きな進歩を遂げた。
しかし、透明性の欠如により、このアプローチの信頼性とセキュリティが懸念されている。
これはAIのブラックボックスの問題です。
ここでは、透明な白い箱の性質を持つシンボリックAIを用いて、この問題をどのように解決できるかを示す。
シンボリックaiの広範な使用は、数学的モデルと自然言語用語の不透明さ、統一オントロジーの欠如、検索オプションの組合せ爆発によって妨げられている。
そこで我々は,AIブラックボックス問題の解決と汎用的記号型AIの実現を目的として,関連する領域の一般理論の第一原理に基づくルール付き決定論的論理セルオートマトンを提案する。
この場合、関連する領域の一般理論は、セルオートマトン推論の知識基盤としての役割を担っている。
セルオートマトンは複雑なシステムの3つのレベルで自動並列論理推論を実行する。
いくつかの生態仮説の検証は、ホワイトボックスAIの実装における成功例となる。
最後に、知識を処理し、自動決定の信頼性と安全性を確保する汎用のシンボルAIを作成するプログラムについて論じる。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Trustworthy XAI and Application [0.0]
本稿では、XAI、信頼性の高いXAI、信頼性の高いXAIの実用的利用について論じる。
我々は、この状況に関係があると判断した3つの主要なコンポーネント、透明性、説明可能性、信頼性を乗り越えます。
結局のところ、人間とAIシステム間の信頼の確立と維持には信頼性が不可欠である。
論文 参考訳(メタデータ) (2024-10-22T16:10:10Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。