論文の概要: Assemblies of neurons can learn to classify well-separated distributions
- arxiv url: http://arxiv.org/abs/2110.03171v1
- Date: Thu, 7 Oct 2021 03:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-09 05:47:27.264505
- Title: Assemblies of neurons can learn to classify well-separated distributions
- Title(参考訳): ニューロンの集合体は、よく区切られた分布を分類することができる
- Authors: Max Dabagia, Christos H. Papadimitriou, Santosh S. Vempala
- Abstract要約: 集合体が脳の最大のトリック(学習能力)を遂行できることが、すでに明らかになっている。
集合計算は、よく分別されたクラスからサンプルを分類する学習メカニズムを提供する。
このメカニズムは完全にオンラインであり、ごく少数のサンプルから一般化され、軽度の監視しか必要としない。
- 参考スコア(独自算出の注目度): 12.770892288593085
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Assemblies are patterns of coordinated firing across large populations of
neurons, believed to represent higher-level information in the brain, such as
memories, concepts, words, and other cognitive categories. Recently, a
computational system called the Assembly Calculus (AC) has been proposed, based
on a set of biologically plausible operations on assemblies. This system is
capable of simulating arbitrary space-bounded computation, and describes quite
naturally complex cognitive phenomena such as language. However, the question
of whether assemblies can perform the brain's greatest trick -- its ability to
learn -- has been open. We show that the AC provides a mechanism for learning
to classify samples from well-separated classes. We prove rigorously that for
simple classification problems, a new assembly that represents each class can
be reliably formed in response to a few stimuli from it; this assembly is
henceforth reliably recalled in response to new stimuli from the same class.
Furthermore, such class assemblies will be distinguishable as long as the
respective classes are reasonably separated, in particular when they are
clusters of similar assemblies, or more generally divided by a halfspace with
margin. Experimentally, we demonstrate the successful formation of assemblies
which represent concept classes on synthetic data drawn from these
distributions, and also on MNIST, which lends itself to classification through
one assembly per digit. Seen as a learning algorithm, this mechanism is
entirely online, generalizes from very few samples, and requires only mild
supervision -- all key attributes of learning in a model of the brain.
- Abstract(参考訳): 集合体は、記憶、概念、言葉、その他の認知カテゴリーなど、脳内の高レベルな情報を表すと信じられている、多数のニューロンをまたいだ協調射撃のパターンである。
近年,組立計算 (AC) と呼ばれる計算システムが提案されている。
このシステムは任意の空間境界計算をシミュレートすることができ、言語のような非常に自然に複雑な認知現象を記述する。
しかし、アセンブリーが脳の最大のトリック(学習能力)を発揮できるかどうかという疑問は開かれている。
また, acは, 十分に分離されたクラスからサンプルを分類する学習機構を提供する。
単純な分類問題に対して、各クラスを表す新しいアセンブリは、いくつかの刺激に応答して確実に形成できることを厳格に証明し、それゆえ、同じクラスの新しい刺激に応答して確実にリコールされる。
さらに、これらのクラスアセンブリは、各クラスが合理的に分離されている限り、特に同様のアセンブリのクラスタである場合、またはより一般的にマージンのあるハーフスペースで区切られる場合、区別可能である。
実験では,これらの分布から得られた合成データから概念クラスを表すアセンブリと,1桁に1つのアセンブリで分類できるmnistの生成に成功した。
学習アルゴリズムとして見れば、このメカニズムは完全にオンラインであり、ごく少数のサンプルから一般化され、軽度な監督を必要とする。
関連論文リスト
- Architecture of a Cortex Inspired Hierarchical Event Recaller [0.0]
本稿では、複雑なパターンの教師なし連続文脈依存学習に焦点を当てた機械学習(ML)に対する新しいアプローチを提案する。
複雑な時間系列を同定し、予測できる合成構造を定義し、実験的に検証する。
概念実証として, 提案システムでは, 事前知識を伴わずに, 人間の発話のような極めて複雑な時系列を学習し, 識別し, 予測できることが示されている。
論文 参考訳(メタデータ) (2024-05-03T09:36:16Z) - Information Processing by Neuron Populations in the Central Nervous
System: Mathematical Structure of Data and Operations [0.0]
哺乳類の中枢神経系の複雑な構造では、神経細胞が集団を形成する。
これらのニューロン集団の正確なエンコーディングと操作はまだ発見されていない。
この研究は、認知科学やAIといった分野における理解を深める上で、マトリックス埋め込みの可能性を照らしている。
論文 参考訳(メタデータ) (2023-09-05T15:52:45Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Computation with Sequences in a Model of the Brain [11.15191997898358]
神経活動から認知がどのように生じるかは神経科学の中心的な問題である。
本研究は, シナプス重量と可塑性により, 時刻を優先的に捉えることができることを示す。
我々は、任意の有限状態機械が、シーケンスの適切なパターンの提示を通して、同様の方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2023-06-06T15:58:09Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Towards understanding deep learning with the natural clustering prior [3.8073142980733]
この論文は、3つの文からなる自然クラスタリングの暗黙の統合について考察する。
クラスを複数のクラスタに分解することで、教師なしのディープラーニングシステムは、教師なしクラスタリングの恩恵を受けることができ、適切な決定境界を定義することができる。
我々は、深層ニューラルネットワークのニューロンレベルと層レベルの表現と同様に、トレーニングダイナミクスに関する広範な実証的研究を通じてこれを行ないます。
論文 参考訳(メタデータ) (2022-03-15T18:07:37Z) - Open-Set Representation Learning through Combinatorial Embedding [62.05670732352456]
ラベル付きクラスとラベルなしクラスの両方の例に基づく表現学習を通じて、データセットにおける新しい概念を識別することに興味がある。
異種ラベル空間上の複数の教師付きメタクラス分類器によって与えられる構成知識を用いて、自然に未知のクラス内のサンプルをクラスタリングする学習手法を提案する。
提案アルゴリズムは,未確認クラスの識別性の向上と,新しいクラスに一般化可能な既知のクラス表現の学習を併用して,新しい概念を探索する。
論文 参考訳(メタデータ) (2021-06-29T11:51:57Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。