論文の概要: Brain-like approaches to unsupervised learning of hidden representations
-- a comparative study
- arxiv url: http://arxiv.org/abs/2005.03476v2
- Date: Fri, 16 Apr 2021 13:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 04:48:23.467263
- Title: Brain-like approaches to unsupervised learning of hidden representations
-- a comparative study
- Title(参考訳): 隠れ表現の教師なし学習への脳的アプローチ--比較研究
- Authors: Naresh Balaji Ravichandran, Anders Lansner, Pawel Herman
- Abstract要約: 我々は最近,疎分散高次元表現を抽出するために拡張されたBCPNNモデルについて検討した。
MNISTデータセットとFashion-MNISTデータセットでトレーニングされた隠れ表現の有用性とクラス依存分離性について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Unsupervised learning of hidden representations has been one of the most
vibrant research directions in machine learning in recent years. In this work
we study the brain-like Bayesian Confidence Propagating Neural Network (BCPNN)
model, recently extended to extract sparse distributed high-dimensional
representations. The usefulness and class-dependent separability of the hidden
representations when trained on MNIST and Fashion-MNIST datasets is studied
using an external linear classifier and compared with other unsupervised
learning methods that include restricted Boltzmann machines and autoencoders.
- Abstract(参考訳): 隠れ表現の教師なし学習は、近年の機械学習における最も活発な研究方向の1つである。
本研究では, 疎分散高次元表現を抽出するために最近拡張されたBCPNNモデルについて検討した。
mnist と fashion-mnist データセットでトレーニングした際の隠れ表現の有用性とクラス依存分離性について外部線形分類器を用いて検討し、制限ボルツマンマシンやオートエンコーダを含む他の教師なし学習法と比較した。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Non-Parametric Representation Learning with Kernels [6.944372188747803]
いくつかのカーネルベース表現学習手法を導入・分析する。
教師付きカーネルマシンの古典的表現定理は、(自己教師型)表現学習には必ずしも適用されない。
我々は,これらの手法の性能を,ニューラルネットワークベースモデルと比較して実証的に評価した。
論文 参考訳(メタデータ) (2023-09-05T08:14:25Z) - Spiking neural networks with Hebbian plasticity for unsupervised
representation learning [0.0]
教師なしの手順でデータから分散内部表現を学習するための新しいスパイクニューラルネットワークモデルを提案する。
オンライン相関に基づくHebbian-Bayesian学習と再配線機構を,前述した表現学習をスパイクニューラルネットワークに導入する。
我々は,非スパイクBCPNNに近い性能を示し,MNISTとF-MNISTの機械学習ベンチマークでトレーニングした場合,他のヘビーンのスパイクネットワークと競合することを示す。
論文 参考訳(メタデータ) (2023-05-05T22:34:54Z) - Entity-Conditioned Question Generation for Robust Attention Distribution
in Neural Information Retrieval [51.53892300802014]
教師付きニューラル情報検索モデルでは,通過トークンよりも疎注意パターンを学習することが困難であることを示す。
目的とする新しい合成データ生成手法を用いて、与えられた通路内の全てのエンティティに対して、より均一で堅牢な参加をニューラルIRに教える。
論文 参考訳(メタデータ) (2022-04-24T22:36:48Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - A Convolutional Deep Markov Model for Unsupervised Speech Representation
Learning [32.59760685342343]
確率的潜在変数モデルは、音声からの言語表現学習のための自己教師付き学習アプローチの代替を提供する。
本研究では,深いニューラルネットワークによってモデル化された非線形放出と遷移関数を持つガウス状態空間モデルであるConvDMMを提案する。
大規模音声データセット(LibriSpeech)で訓練すると、ConvDMMは複数の自己教師付き特徴抽出法よりもはるかに優れた特徴を生成する。
論文 参考訳(メタデータ) (2020-06-03T21:50:20Z) - Learning representations in Bayesian Confidence Propagation neural
networks [0.0]
階層的表現の教師なし学習は、ディープラーニングにおける最も活発な研究方向の1つである。
本研究は,局所的なヘビアン学習に基づくニューラルネットワークにおける非教師なし戦略を生物学的にインスピレーションした研究である。
論文 参考訳(メタデータ) (2020-03-27T13:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。