論文の概要: Neuro-symbolic Architectures for Context Understanding
- arxiv url: http://arxiv.org/abs/2003.04707v1
- Date: Mon, 9 Mar 2020 15:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:59:18.428744
- Title: Neuro-symbolic Architectures for Context Understanding
- Title(参考訳): 文脈理解のためのニューロシンボリックアーキテクチャ
- Authors: Alessandro Oltramari, Jonathan Francis, Cory Henson, Kaixin Ma, and
Ruwan Wickramarachchi
- Abstract要約: 本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
- 参考スコア(独自算出の注目度): 59.899606495602406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational context understanding refers to an agent's ability to fuse
disparate sources of information for decision-making and is, therefore,
generally regarded as a prerequisite for sophisticated machine reasoning
capabilities, such as in artificial intelligence (AI). Data-driven and
knowledge-driven methods are two classical techniques in the pursuit of such
machine sense-making capability. However, while data-driven methods seek to
model the statistical regularities of events by making observations in the
real-world, they remain difficult to interpret and they lack mechanisms for
naturally incorporating external knowledge. Conversely, knowledge-driven
methods, combine structured knowledge bases, perform symbolic reasoning based
on axiomatic principles, and are more interpretable in their inferential
processing; however, they often lack the ability to estimate the statistical
salience of an inference. To combat these issues, we propose the use of hybrid
AI methodology as a general framework for combining the strengths of both
approaches. Specifically, we inherit the concept of neuro-symbolism as a way of
using knowledge-bases to guide the learning progress of deep neural networks.
We further ground our discussion in two applications of neuro-symbolism and, in
both cases, show that our systems maintain interpretability while achieving
comparable performance, relative to the state-of-the-art.
- Abstract(参考訳): コンピュータコンテキスト理解(Computational context understanding)とは、エージェントが意思決定のために異なる情報ソースを融合する能力のことであり、人工知能(AI)のような高度な機械推論能力の前提とされている。
データ駆動型と知識駆動型の2つの手法は、機械認識能力の追求において古典的な手法である。
しかし、データ駆動手法は実世界の観測によって事象の統計的規則性をモデル化しようとするが、解釈は困難であり、外部知識を自然に取り入れるメカニズムが欠如している。
逆に、知識駆動の手法は構造化知識ベースを結合し、公理原理に基づく記号的推論を行い、推論処理においてより解釈可能であるが、推論の統計的サリエンスを推定する能力は欠如していることが多い。
これらの課題に対処するため,両アプローチの長所を結合する汎用フレームワークとしてハイブリッドAI手法を提案する。
具体的には,ニューロシンボリズムの概念を知識ベースを用いて深層ニューラルネットワークの学習過程を指導する方法として継承する。
さらに神経シンボリズムの2つの応用で議論を進め、どちらの場合においても、我々のシステムは最先端と比較して、同等のパフォーマンスを達成しつつも解釈性を維持していることを示している。
関連論文リスト
- Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - A Concept and Argumentation based Interpretable Model in High Risk
Domains [9.209499864585688]
解釈可能性(interpretability)は、医療、銀行、セキュリティといったリスクの高い分野において、人工知能にとって重要なトピックとなっている。
人間の理解可能な概念を得るための新しい概念マイニング手法を含む概念と議論に基づくモデル(CAM)を提案する。
CAMは人間レベルの知識に基づく意思決定を提供し、推論プロセスは本質的に解釈可能である。
論文 参考訳(メタデータ) (2022-08-17T08:29:02Z) - A Data-Driven Study of Commonsense Knowledge using the ConceptNet
Knowledge Base [8.591839265985412]
汎用人工知能(AI)の実現における重要なフロンティアとして,コモンセンス知識と推論の獲得が認められている。
本稿では,コンセプションネットの知識基盤を実証的かつ構造的に分析することにより,コモンセンス知識のより深い理解を可能にする体系的な研究を提案し,実施する。
最先端の教師なしグラフ表現学習(「埋め込み」)とクラスタリング技術を用いて、慎重に設計された3つの研究課題に関する詳細な実験結果から、ConceptNet関係の深いサブ構造を明らかにする。
論文 参考訳(メタデータ) (2020-11-28T08:08:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。