論文の概要: Monadic Pavlovian associative learning in a backpropagation-free
photonic network
- arxiv url: http://arxiv.org/abs/2011.14709v3
- Date: Fri, 5 Aug 2022 04:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 14:39:20.870434
- Title: Monadic Pavlovian associative learning in a backpropagation-free
photonic network
- Title(参考訳): バックプロパゲーションフリーフォトニックネットワークにおけるモナディックパブロヴィアン連想学習
- Authors: James Y. S. Tan, Zengguang Cheng, Johannes Feldmann, Xuan Li, Nathan
Youngblood, Utku E. Ali, C. David Wright, Wolfram H. P. Pernice and Harish
Bhaskaran
- Abstract要約: 我々は,単一の(あるいはモナディックな)連想ハードウェア要素を用いたバックプロパゲーションフリー学習の形式を実験的に実証した。
次に,モナディックパブロヴィアンフォトニックハードウェアを用いたスケールアップ回路ネットワークを開発した。
- 参考スコア(独自算出の注目度): 5.146055364472386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over a century ago, Ivan P. Pavlov, in a classic experiment, demonstrated how
dogs can learn to associate a ringing bell with food, thereby causing a ring to
result in salivation. Today, it is rare to find the use of Pavlovian type
associative learning for artificial intelligence (AI) applications even though
other learning concepts, in particular backpropagation on artificial neural
networks (ANNs) have flourished. However, training using the backpropagation
method on 'conventional' ANNs, especially in the form of modern deep neural
networks (DNNs), is computationally and energy intensive. Here we
experimentally demonstrate a form of backpropagation-free learning using a
single (or monadic) associative hardware element. We realize this on an
integrated photonic platform using phase-change materials combined with on-chip
cascaded directional couplers. We then develop a scaled-up circuit network
using our monadic Pavlovian photonic hardware that delivers a distinct
machine-learning framework based on single-element associations and,
importantly, using backpropagation-free architectures to address general
learning tasks. Our approach reduces the computational burden imposed by
learning in conventional neural network approaches, thereby increasing speed,
whilst also offering higher bandwidth inherent to our photonic implementation.
- Abstract(参考訳): 1世紀以上前、イヴァン・パブロフ(Ivan P. Pavlov)は古典的な実験で、犬が鳴る鐘と食べ物を関連付けることを学べることを示した。
今日では、他の学習概念、特に人工知能ニューラルネットワーク(ANN)のバックプロパゲーションが盛んであるにもかかわらず、パブロフ型連想学習を人工知能(AI)応用に適用することはまれである。
しかし、従来のANNのバックプロパゲーション手法を用いたトレーニングは、特に現代のディープニューラルネットワーク(DNN)の形で、計算的かつエネルギー集約的である。
本稿では,単一(あるいは単調)連想ハードウェア要素を用いたバックプロパゲーションフリー学習の形式を実験的に示す。
位相変化材料とオンチップカスケード方向カプラを組み合わせた統合フォトニックプラットフォーム上でこれを実現する。
次に,モナディックなパブロフフォトニックハードウェアを用いて,単要素アソシエーションに基づく独自の機械学習フレームワークを提供するスケールアップ回路ネットワークを開発し,さらに,バックプロパゲーションフリーアーキテクチャを用いて一般的な学習課題に対処する。
本手法は,従来のニューラルネットワークの学習による計算負荷を低減し,高速化を実現するとともに,フォトニック実装に固有の帯域幅も高めている。
関連論文リスト
- Predictive Coding Networks and Inference Learning: Tutorial and Survey [0.7510165488300368]
予測符号化ネットワーク(PCN)は、予測符号化の神経科学的な枠組みに基づいている。
バックプロパゲーション(BP)で訓練された従来のニューラルネットワークとは異なり、PCNは推論学習(IL)を利用する。
本質的に確率的(グラフィック的)潜在変数モデルとして、PCNは教師付き学習と教師なし(生成的)モデリングの両方に汎用的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-07-04T18:39:20Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Neuromorphic dreaming: A pathway to efficient learning in artificial agents [2.6542148964152923]
本稿では、混合信号アナログ/デジタルニューロモルフィックハードウェア上でのスパイキングニューラルネットワーク(SNN)を用いたモデルベース強化学習(MBRL)のハードウェア実装について述べる。
このアプローチは、高サンプリング効率を実現しつつ、混合信号ニューロモルフィックチップのエネルギー効率を活用する。
我々は、ハードウェア実装をトレーニングして、AtariゲームPongをプレイすることで、モデルを検証する。
論文 参考訳(メタデータ) (2024-05-24T15:03:56Z) - CQural: A Novel CNN based Hybrid Architecture for Quantum Continual
Machine Learning [0.0]
本研究では,新しい古典量子ニューラルネットを用いた連続学習において,破滅的な忘れを回避できることが示唆された。
また、モデルがこれらの説明でトレーニングされている場合、より良いパフォーマンスを与え、決定境界から遠く離れた特定の特徴を学ぶ傾向があります。
論文 参考訳(メタデータ) (2023-05-16T18:19:12Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Gradient Descent in Materio [3.756477173839499]
材料システムにおいて, 損失関数の勾配降下を行うための, 効率的で正確なホモダイン勾配抽出法を示す。
これは、原則として勾配勾配勾配は、単純な電子を用いてマテオで完全に実装できることを示している。
論文 参考訳(メタデータ) (2021-05-15T12:18:31Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。