論文の概要: Unsupervised 3D Object Learning through Neuron Activity aware Plasticity
- arxiv url: http://arxiv.org/abs/2302.11622v1
- Date: Wed, 22 Feb 2023 19:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 17:07:09.823434
- Title: Unsupervised 3D Object Learning through Neuron Activity aware Plasticity
- Title(参考訳): ニューロン活動認識可塑性を利用した教師なし3次元物体学習
- Authors: Beomseok Kang, Biswadeep Chakraborty, Saibal Mukhopadhyay
- Abstract要約: ニューラルン・アクティビティ・アウェア(NeAW)ヘビアン・ラーニング・ルールを用いたディープ・ネットワークを提案する。
NeAW ヘビアン学習はニューロン活動のバイアスを緩和し、より多くのニューロンが3Dオブジェクトの表現に参加することを可能にする。
経験的な結果から、NeAW Hebbian学習はHebbian学習の他の変種よりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 11.445441489156027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an unsupervised deep learning model for 3D object classification.
Conventional Hebbian learning, a well-known unsupervised model, suffers from
loss of local features leading to reduced performance for tasks with complex
geometric objects. We present a deep network with a novel Neuron Activity Aware
(NeAW) Hebbian learning rule that dynamically switches the neurons to be
governed by Hebbian learning or anti-Hebbian learning, depending on its
activity. We analytically show that NeAW Hebbian learning relieves the bias in
neuron activity, allowing more neurons to attend to the representation of the
3D objects. Empirical results show that the NeAW Hebbian learning outperforms
other variants of Hebbian learning and shows higher accuracy over fully
supervised models when training data is limited.
- Abstract(参考訳): 3次元オブジェクト分類のための教師なしディープラーニングモデルを提案する。
一般的なヘビアン学習は、よく知られた教師なしモデルであり、局所的な特徴が失われ、複雑な幾何学的対象を持つタスクのパフォーマンスが低下する。
本稿では,新しい神経活動認識(NeAW)ヘッビアン学習規則(NeAW)を用いた深層ネットワークを提案し,その活動に応じて,ニューロンを動的にヘッビアン学習またはアンチヘッビアン学習によって支配されるように切り替える。
我々は、NeAW Hebbian学習がニューロン活動のバイアスを緩和し、より多くのニューロンが3Dオブジェクトの表現に参加することを解析的に示す。
実験の結果,NeAW Hebbian学習はHebbian学習の他の変種よりも優れており,学習データに制限がある場合,完全に教師付きモデルよりも高い精度を示すことがわかった。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Low Tensor Rank Learning of Neural Dynamics [0.0]
低次元課題を解決するために訓練されたRNNにおいて,低テンソルランクの重みが自然に現れることを示す。
本研究は,生物ニューラルネットワークと人工ニューラルネットワークの双方において,学習による集団接続の進化に関する知見を提供する。
論文 参考訳(メタデータ) (2023-08-22T17:08:47Z) - Improving Neural ODEs via Knowledge Distillation [35.92851907503015]
画像認識タスクに適合するより強力で堅牢なニューラルODEを構築するための知識蒸留に基づく新しいトレーニングを提案する。
実験の結果,CIFAR10では24%,SVHNでは5%の精度でニューラルODEの分類精度を向上できることがわかった。
論文 参考訳(メタデータ) (2022-03-10T01:23:41Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。