論文の概要: The ideal data compression and automatic discovery of hidden law using
neural network
- arxiv url: http://arxiv.org/abs/2203.16941v1
- Date: Thu, 31 Mar 2022 10:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 16:45:06.197451
- Title: The ideal data compression and automatic discovery of hidden law using
neural network
- Title(参考訳): ニューラルネットワークを用いた理想的なデータ圧縮と隠蔽法の自動発見
- Authors: Taisuke Katayose
- Abstract要約: 我々は、人間の脳がどのように出来事を認識し、記憶するかを考える。
我々は、新しいオートエンコーダニューラルネットワークを用いて、人間の脳のシステムを機械学習モデルで再現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently machine learning using neural networks has been developed, and many
new methods have been suggested. On the other hand, a system that has true
versatility has not been developed, and there remain many fields in which the
human brain has advantages over machine learning. We considered how the human
brain recognizes events and memorizes them and succeeded to reproduce the
system of the human brain on a machine learning model with a new autoencoder
neural network (NN). The previous autoencoders have the problem that they
cannot define well what is the features of the input data, and we need to
restrict the middle layer of the autoencoder artificially. We solve this
problem by defining a new loss function that reflects the information entropy,
and it enables the NN to compress the input data ideally and automatically
discover the hidden law behind the input data set. The loss function used in
our NN is based on the free-energy principle which is known as the unified
brain theory, and our study is the first concrete formularization of this
principle. The result of this study can be applied to any kind of data analysis
and also to cognitive science.
- Abstract(参考訳): 近年,ニューラルネットワークを用いた機械学習が開発され,新しい手法が提案されている。
一方で、真の汎用性を持つシステムは開発されておらず、人間の脳が機械学習よりも優れている分野が数多く残っている。
我々は、人間の脳がどのように出来事を認識し、記憶し、新しいオートエンコーダニューラルネットワーク(NN)を用いて、人間の脳のシステムを機械学習モデルで再現することに成功しました。
従来のオートエンコーダには,入力データの特徴を適切に定義できないという問題があるため,オートエンコーダの中間層を人為的に制限する必要がある。
我々は,情報エントロピーを反映した新たな損失関数を定義し,NNが入力データを理想的に圧縮し,入力データセットの背後にある隠れた法則を自動的に発見できるようにする。
NNで用いられる損失関数は、統合脳理論として知られる自由エネルギー原理に基づいており、本原理の具体的な定式化は本研究が初めてである。
この研究の結果は、あらゆる種類のデータ分析や認知科学にも応用できる。
関連論文リスト
- Machine Unlearning using Forgetting Neural Networks [0.0]
本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
MNIST手書き文字認識とファッションデータセットについて報告する。
論文 参考訳(メタデータ) (2024-10-29T02:52:26Z) - Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Toward Neuromic Computing: Neurons as Autoencoders [0.0]
本稿では、神経バックプロパゲーションが樹状突起処理を用いて、個々のニューロンが自己エンコーディングを行うことを可能にするという考えを述べる。
非常に単純な接続重み探索と人工ニューラルネットワークモデルを用いて、フィードフォワードネットワークの隠蔽層における各ニューロンに対する自己エンコーディングのインターリーブ効果について検討した。
論文 参考訳(メタデータ) (2024-03-04T18:58:09Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Implementing engrams from a machine learning perspective: matching for
prediction [0.0]
ニューラルネットワークを用いてエングラムを実装するコンピュータシステムを設計する方法について提案する。
オートエンコーダをベースとして,情報を圧縮形式で保存・検索するためのインデックスとして潜時ニューラルネットワークを提案する。
我々は、異なるタイプの感覚入力に対応する潜時神経空間における異なる状態が同期活性化によってどのようにリンクされるかを検討する。
論文 参考訳(メタデータ) (2023-03-01T10:05:40Z) - Continual Learning with Deep Learning Methods in an Application-Oriented
Context [0.0]
人工知能(AI)の重要な研究領域は、データから知識を自動的に導出することである。
ディープニューラルネットワーク(Deep Neural Networks, DNN)と呼ばれる、"ディープラーニング"モデルに分類される機械学習アルゴリズムの一種。
DNNは、新しい知識が既存のベースに追加されるのを防ぐ問題の影響を受けます。
論文 参考訳(メタデータ) (2022-07-12T10:13:33Z) - A Spiking Neural Network based on Neural Manifold for Augmenting
Intracortical Brain-Computer Interface Data [5.039813366558306]
脳-コンピュータインターフェース(BCI)は、脳内の神経信号をインストラクションに変換して外部デバイスを制御する。
高度な機械学習手法の出現により、脳-コンピュータインタフェースの能力はかつてないほど強化された。
ここでは、データジェネレータとしてスパイキングニューラルネットワーク(SNN)を用いる。
論文 参考訳(メタデータ) (2022-03-26T15:32:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。