論文の概要: Unsupervised learning architecture based on neural Darwinism and
Hopfield networks recognizes symbols with high accuracy
- arxiv url: http://arxiv.org/abs/2311.18789v1
- Date: Thu, 30 Nov 2023 18:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 15:26:09.193328
- Title: Unsupervised learning architecture based on neural Darwinism and
Hopfield networks recognizes symbols with high accuracy
- Title(参考訳): ニューラルダーウィン主義とホップフィールドネットワークに基づく教師なし学習アーキテクチャは高精度にシンボルを認識する
- Authors: Mario Stepanik
- Abstract要約: 本稿では,ジェラルド・エデルマンの神経群選択理論(ニューラルダーウィン主義)に触発された新しい教師なし学習パラダイムを紹介する。
提示されたオートマトンは、任意の記号(例えばアルファベットの文字)を、子供が読むことを学ぶときのように繰り返し表示されるときに認識することを学ぶ。
シミュレーションでは、格子上に二進パターンとして表されるラテンアルファベットの文字を学習する際の精度が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel unsupervised learning paradigm inspired by
Gerald Edelman's theory of neuronal group selection ("Neural Darwinism"). The
presented automaton learns to recognize arbitrary symbols (e.g., letters of an
alphabet) when they are presented repeatedly, as they are when children learn
to read. On a second hierarchical level, the model creates abstract categories
representing the learnt symbols. The fundamental computational unit are simple
McCulloch-Pitts neurons arranged into fully-connected groups (Hopfield networks
with randomly initialized weights), which are "selected", in an evolutionary
sense, through symbol presentation. The learning process is fully tractable and
easily interpretable for humans, in contrast to most neural network
architectures. Computational properties of Hopfield networks enabling pattern
recognition are discussed. In simulations, the model achieves high accuracy in
learning the letters of the Latin alphabet, presented as binary patterns on a
grid. This paper is a proof of concept with no claims to state-of-the-art
performance in letter recognition, but hopefully inspires new thinking in
bio-inspired machine learning.
- Abstract(参考訳): 本稿では,gerald edelmanの神経群選択理論(neural darwinism)に触発された新しい教師なし学習パラダイムを提案する。
提示されたオートマトンは、任意の記号(例えばアルファベットの文字)を、子供が読むことを学ぶときのように繰り返し表示されるときに認識することを学ぶ。
第2の階層レベルでは、モデルは学習記号を表す抽象カテゴリを作成する。
基本的な計算単位は、完全な連結群(ランダムに初期化された重みを持つホップフィールドネットワーク)に配列された単純なマカロック・ピットニューロンであり、シンボル提示を通じて進化的な意味で「選択」される。
学習プロセスは完全に扱いやすく、ほとんどのニューラルネットワークアーキテクチャとは対照的に、人間にとって容易に解釈できる。
パターン認識が可能なホップフィールドネットワークの計算特性について論じる。
シミュレーションでは、モデルは格子上のバイナリパターンとして提示されるラテンアルファベットの文字を学習することで高い精度を達成する。
この論文は、文字認識における最先端のパフォーマンスを主張できない概念実証であるが、願わくばバイオインスパイアされた機械学習の新しい思考を刺激するものである。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic Gradients [0.7832189413179361]
人工ニューラルネットワークにおいて、任意の単一ニューロンのクローズドフォーム解釈を見つけるための統一的なフレームワークを紹介します。
ニューラルネットワーク分類器を解釈して、決定境界に符号化された概念のクローズドフォーム表現を明らかにする。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - ElegansNet: a brief scientific report and initial experiments [0.0]
ElegansNetは、現実世界のニューラルネットワーク回路を模倣するニューラルネットワークである。
自然ネットワークに似たトポロジを持つ改良されたディープラーニングシステムを生成する。
論文 参考訳(メタデータ) (2023-04-06T13:51:04Z) - A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification [29.075766631810595]
本稿では,テキストのクラスラベルを選挙区木から明示的に予測するシンボリック・ニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、訓練データとして、原文と文レベルのラベルしか必要としない。
実験により,下流タスクにおける予測精度が向上できることが実証された。
論文 参考訳(メタデータ) (2023-03-06T03:25:43Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Visual Pattern Recognition with on On-chip Learning: towards a Fully
Neuromorphic Approach [10.181725314550823]
ニューロモルフィックハードウェア上でのオンチップ学習による視覚パターン認識のためのスパイキングニューラルネットワーク(SNN)を提案する。
このネットワークは、ダイナミック・ビジョン・センサーによって知覚される水平と垂直のバーからなる単純な視覚パターンを学習することができることを示す。
認識中、ネットワークはパターンのアイデンティティを分類し、同時にその位置とスケールを推定する。
論文 参考訳(メタデータ) (2020-08-08T08:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。