論文の概要: Neurosymbolic AI - Why, What, and How
- arxiv url: http://arxiv.org/abs/2305.00813v1
- Date: Mon, 1 May 2023 13:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 13:12:21.334249
- Title: Neurosymbolic AI - Why, What, and How
- Title(参考訳): ニューロシンボリックAI - なぜ、何が、どのように
- Authors: Amit Sheth, Kaushik Roy, Manas Gaur
- Abstract要約: 人間は知覚と認知の組み合わせを使って環境と相互作用する。
一方、機械認識はより複雑な計算を包含する。
本稿では,ニューロシンボリックAIの新たなパラダイムを紹介する。
- 参考スコア(独自算出の注目度): 9.551858963199987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans interact with the environment using a combination of perception -
transforming sensory inputs from their environment into symbols, and cognition
- mapping symbols to knowledge about the environment for supporting
abstraction, reasoning by analogy, and long-term planning. Human
perception-inspired machine perception, in the context of AI, refers to
large-scale pattern recognition from raw data using neural networks trained
using self-supervised learning objectives such as next-word prediction or
object recognition. On the other hand, machine cognition encompasses more
complex computations, such as using knowledge of the environment to guide
reasoning, analogy, and long-term planning. Humans can also control and explain
their cognitive functions. This seems to require the retention of symbolic
mappings from perception outputs to knowledge about their environment. For
example, humans can follow and explain the guidelines and safety constraints
driving their decision-making in safety-critical applications such as
healthcare, criminal justice, and autonomous driving. This article introduces
the rapidly emerging paradigm of Neurosymbolic AI combines neural networks and
knowledge-guided symbolic approaches to create more capable and flexible AI
systems. These systems have immense potential to advance both algorithm-level
(e.g., abstraction, analogy, reasoning) and application-level (e.g.,
explainable and safety-constrained decision-making) capabilities of AI systems.
- Abstract(参考訳): 人間は、知覚変換された知覚入力を自分の環境からシンボルに、そして認知を組み合わせて環境と相互作用する - 抽象性、アナロジーによる推論、長期計画のための環境に関する知識にシンボルをマッピングする。
人間の知覚にインスパイアされた機械知覚は、AIの文脈において、ニューラルネットワークを使用して生データから大規模なパターン認識を行う。
一方、機械認知は、推論、アナロジー、長期計画のガイドとして環境の知識を使用するなど、より複雑な計算を包含する。
人間は認知機能の制御や説明もできる。
これは、認識出力から環境に関する知識へのシンボリックマッピングの保持を必要とするようである。
例えば、医療、刑事司法、自律運転といった安全クリティカルなアプリケーションにおいて、人間は意思決定を駆動するガイドラインと安全性の制約に従い、説明することができる。
この記事では、ニューラルネットワークと知識誘導型シンボリックアプローチを組み合わせて、より有能で柔軟なAIシステムを構築する、新たなパラダイムであるNeurosymbolic AIを紹介します。
これらのシステムは、AIシステムのアルゴリズムレベル(例えば、抽象化、アナロジー、推論)とアプリケーションレベル(例えば、説明可能な、安全性に制約のある意思決定)の両方を前進させる大きな可能性を秘めている。
関連論文リスト
- Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Adaptive User-centered Neuro-symbolic Learning for Multimodal
Interaction with Autonomous Systems [0.0]
機械学習の最近の進歩により、自律システムは物体を知覚し、理解することができるようになった。
人間が提供する明示的な教えと、人間の行動を観察して得られる暗黙的な教えの両方を考慮することが不可欠である。
インプットのタイプや,ループ内の人間とインクリメンタルな学習技術についても検討する。
論文 参考訳(メタデータ) (2023-09-11T19:35:12Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Knowledge-enhanced Neuro-Symbolic AI for Cybersecurity and Privacy [3.425341633647625]
ニューロシンボリック人工知能は、ニューラルネットワークと明示的でシンボリックな知識グラフのサブシンボリックな強さを組み合わせる。
この記事では、最も要求の多い2つのドメインであるサイバーセキュリティとプライバシのアプリケーションが、Neuro-Symbolic AIの恩恵を受ける方法について説明する。
論文 参考訳(メタデータ) (2023-07-25T01:29:34Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Neurosymbolic AI: The 3rd Wave [1.14219428942199]
AIの信頼、安全性、解釈可能性、説明責任に関する懸念は、影響力のある思想家によって提起された。
多くは、知識表現と推論を深層学習に統合する必要性を認識している。
ニューラル・シンボリック・コンピューティングは、推論と説明可能性を備えた堅牢な学習をニューラルネットワークで組み合わせようとする研究の活発な領域である。
論文 参考訳(メタデータ) (2020-12-10T18:31:38Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。