論文の概要: A white box solution to the black box problem of AI
- arxiv url: http://arxiv.org/abs/2401.03093v1
- Date: Fri, 5 Jan 2024 23:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:35:20.807794
- Title: A white box solution to the black box problem of AI
- Title(参考訳): AIのブラックボックス問題に対するホワイトボックスソリューション
- Authors: V. L. Kalmykov, L.V. Kalmykov
- Abstract要約: 我々はこの問題を、透明な白い箱の性質を持つ象徴的AIを用いてどのように解決できるかを示す。
本稿では,関係領域の一般理論の第一原理に基づくルール付き決定論的論理セルオートマトンを提案する。
いくつかの生態仮説の検証は、ホワイトボックスAIの実装における成功例となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence based on neural networks has made significant
progress. However, there are concerns about the reliability and security of
this approach due to its lack of transparency. This is the black box problem of
AI. Here we show how this problem can be solved using symbolic AI, which has a
transparent white box nature. The widespread use of symbolic AI is hindered by
the opacity of mathematical models and natural language terms, the lack of a
unified ontology, and the combinatorial explosion of search options. To solve
the AI black box problem and to implement general-purpose symbolic AI, we
propose to use deterministic logic cellular automata with rules based on first
principles of the general theory of the relevant domain. In this case, the
general theory of the relevant domain plays the role of a knowledge base for
the cellular automaton inference. A cellular automaton implements automatic
parallel logical inference at three levels of organization of a complex system.
Our verification of several ecological hypotheses provides a successful
precedent for the implementation of white-box AI. Finally, we discuss a program
for creating a general-purpose symbolic AI capable of processing knowledge and
ensuring the reliability and safety of automated decisions.
- Abstract(参考訳): ニューラルネットワークに基づく人工知能は大きな進歩を遂げた。
しかし、透明性の欠如により、このアプローチの信頼性とセキュリティが懸念されている。
これはAIのブラックボックスの問題です。
ここでは、透明な白い箱の性質を持つシンボリックAIを用いて、この問題をどのように解決できるかを示す。
シンボリックaiの広範な使用は、数学的モデルと自然言語用語の不透明さ、統一オントロジーの欠如、検索オプションの組合せ爆発によって妨げられている。
そこで我々は,AIブラックボックス問題の解決と汎用的記号型AIの実現を目的として,関連する領域の一般理論の第一原理に基づくルール付き決定論的論理セルオートマトンを提案する。
この場合、関連する領域の一般理論は、セルオートマトン推論の知識基盤としての役割を担っている。
セルオートマトンは複雑なシステムの3つのレベルで自動並列論理推論を実行する。
いくつかの生態仮説の検証は、ホワイトボックスAIの実装における成功例となる。
最後に、知識を処理し、自動決定の信頼性と安全性を確保する汎用のシンボルAIを作成するプログラムについて論じる。
関連論文リスト
- Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。