論文の概要: Evaluating the Apperception Engine
- arxiv url: http://arxiv.org/abs/2007.05367v1
- Date: Thu, 9 Jul 2020 11:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:24:51.167010
- Title: Evaluating the Apperception Engine
- Title(参考訳): 受入エンジンの評価
- Authors: Richard Evans, Jose Hernandez-Orallo, Johannes Welbl, Pushmeet Kohli,
Marek Sergot
- Abstract要約: Apperception Engineは教師なし学習システムである。
両者とも感覚系列を説明し、一意条件の集合を満たすシンボリック因果理論を構築している。
将来のセンサーの読み出しを予測したり、以前の読み出しを再現したり、欠落した読み出しに応用することができる。
- 参考スコア(独自算出の注目度): 31.071555696874054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Apperception Engine is an unsupervised learning system. Given a sequence
of sensory inputs, it constructs a symbolic causal theory that both explains
the sensory sequence and also satisfies a set of unity conditions. The unity
conditions insist that the constituents of the theory - objects, properties,
and laws - must be integrated into a coherent whole. Once a theory has been
constructed, it can be applied to predict future sensor readings, retrodict
earlier readings, or impute missing readings.
In this paper, we evaluate the Apperception Engine in a diverse variety of
domains, including cellular automata, rhythms and simple nursery tunes,
multi-modal binding problems, occlusion tasks, and sequence induction
intelligence tests. In each domain, we test our engine's ability to predict
future sensor values, retrodict earlier sensor values, and impute missing
sensory data. The engine performs well in all these domains, significantly
outperforming neural net baselines and state of the art inductive logic
programming systems. These results are significant because neural nets
typically struggle to solve the binding problem (where information from
different modalities must somehow be combined together into different aspects
of one unified object) and fail to solve occlusion tasks (in which objects are
sometimes visible and sometimes obscured from view). We note in particular that
in the sequence induction intelligence tests, our system achieved human-level
performance. This is notable because our system is not a bespoke system
designed specifically to solve intelligence tests, but a general-purpose system
that was designed to make sense of any sensory sequence.
- Abstract(参考訳): Apperception Engineは教師なし学習システムである。
感覚入力の列が与えられたとき、感覚のシーケンスを説明すると同時に一連の統一条件を満たす象徴的因果理論を構築する。
統一条件は、理論の構成要素(対象、性質、および法則)は、コヒーレントな全体に統合されなければならないと主張する。
理論が構築されると、将来のセンサーの読み出し、事前の読み戻し、あるいは欠落した読み出しの予測に応用できる。
本稿では,セルオートマトン,リズム,簡単な保育音,マルチモーダル結合問題,オクルージョンタスク,シーケンス誘導知能テストなど多種多様な領域において,apperception engineを評価する。
それぞれの領域で、将来のセンサー値を予測するエンジンの能力、以前のセンサー値の回帰、センサーデータの欠如をテストします。
エンジンはこれらの領域すべてで良好に動作し、ニューラルネットベースラインとアート帰納論理プログラミングシステムの状態を大きく上回っている。
これらの結果は、ニューラルネットが結合問題(異なるモダリティの情報を何らかの形で結合して一つの統一されたオブジェクトの異なる側面にまとめる必要がある)を解こうとするのに苦労し、閉塞タスクを解こうとしないため重要である。
特にシーケンスインジェクションインテリジェンステストにおいて,本システムは人間レベルの性能を達成した。
これは、我々のシステムは知能検査に特化して設計されたbespokeシステムではなく、あらゆる感覚シーケンスを理解するために設計された汎用システムであるからである。
関連論文リスト
- A challenge in A(G)I, cybernetics revived in the Ouroboros Model as one
algorithm for all thinking [0.0]
論文の目的は、現在の人工知能アプローチの長所と短所を明らかにすることである。
サイバネティックスとアナログ制御プロセスの側面を新たに取り入れることが提案されている。
論文 参考訳(メタデータ) (2024-03-07T07:39:54Z) - Generalizability Under Sensor Failure: Tokenization + Transformers Enable More Robust Latent Spaces [24.52935957415906]
神経科学の主要な目標は、一般化する神経データ表現を発見することである。
最近の研究は、セッションや主題間の一般化に対処し始めているが、センサ障害に対する堅牢性の研究はほとんどない。
まず、多数のセッション、被験者、センサーで脳波データを収集し、2つの時系列モデル(EEGNetとTOTEM)を研究します。
論文 参考訳(メタデータ) (2024-02-28T18:29:25Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - A Framework for Multisensory Foresight for Embodied Agents [11.351546861334292]
将来の感覚状態を予測することは、ロボット、ドローン、自動運転車などの学習エージェントにとって不可欠である。
本稿では,複数の感覚モーダルを探索行動と組み合わせ,この問題に対処するための予測ニューラルネットワークアーキテクチャを提案する。
このフレームワークは、大規模なオブジェクトに対して9つの動作を複数回実行するヒューマノイドロボット上で、4つの感覚モーダル(ビジョン、触覚、オーディオ、触覚)を含むデータセットでテストされ、検証された。
論文 参考訳(メタデータ) (2021-09-15T20:20:04Z) - Improving Coherence and Consistency in Neural Sequence Models with
Dual-System, Neuro-Symbolic Reasoning [49.6928533575956]
我々は、神経系1と論理系2の間を仲介するために神経推論を用いる。
強靭なストーリー生成とグラウンドド・インストラクション・フォローリングの結果、このアプローチは神経系世代におけるコヒーレンスと精度を高めることができることを示した。
論文 参考訳(メタデータ) (2021-07-06T17:59:49Z) - A Framework for Learning Invariant Physical Relations in Multimodal
Sensory Processing [0.0]
我々は、教師なしの方法で、知覚的手がかり間の関係を学習できる新しいニューラルネットワークアーキテクチャを設計する。
低次元知覚データにおける任意の非線形関係を学習する際のコアシステム機能について述べる。
我々は、標準的なRGBカメラフレームから物理量間の関係を学習する現実世界の学習問題を通してこれを実証する。
論文 参考訳(メタデータ) (2020-06-30T08:42:48Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Sensorimotor Visual Perception on Embodied System Using Free Energy
Principle [0.0]
本稿では,視覚知覚のための自由エネルギー原理(FEP)に基づく具体化システムを提案する。
MNISTデータセットを用いて文字認識タスクで評価する。
論文 参考訳(メタデータ) (2020-06-11T05:03:45Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。