論文の概要: MT-SNN: Spiking Neural Network that Enables Single-Tasking of Multiple
Tasks
- arxiv url: http://arxiv.org/abs/2208.01522v1
- Date: Tue, 2 Aug 2022 15:17:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 12:43:24.781093
- Title: MT-SNN: Spiking Neural Network that Enables Single-Tasking of Multiple
Tasks
- Title(参考訳): MT-SNN:複数タスクのシングルタスクを可能にするスパイキングニューラルネットワーク
- Authors: Paolo G. Cachi, Sebastian Ventura, Krzysztof J. Cios
- Abstract要約: マルチタスクスパイクニューラルネットワーク(MT-SNN)を実装し、同時に2つ以上の分類タスクを学習し、同時に1つのタスクを実行する。
このネットワークは、Loihi2ニューロモルフィックチップ用のIntelのLavaプラットフォームを使って実装されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we explore capabilities of spiking neural networks in solving
multi-task classification problems using the approach of single-tasking of
multiple tasks. We designed and implemented a multi-task spiking neural network
(MT-SNN) that can learn two or more classification tasks while performing one
task at a time. The task to perform is selected by modulating the firing
threshold of leaky integrate and fire neurons used in this work. The network is
implemented using Intel's Lava platform for the Loihi2 neuromorphic chip. Tests
are performed on dynamic multitask classification for NMNIST data. The results
show that MT-SNN effectively learns multiple tasks by modifying its dynamics,
namely, the spiking neurons' firing threshold.
- Abstract(参考訳): 本稿では,複数タスクの単一タスクのアプローチを用いたマルチタスク分類問題の解法におけるニューラルネットワークのスパイク機能について検討する。
1つのタスクを一度に実行しながら2つ以上の分類タスクを学習できるマルチタスクスパイクニューラルネットワーク(mt-snn)を設計・実装した。
この作業で使用される漏洩積分と発火ニューロンの発火閾値を調節して実行するタスクを選択する。
このネットワークは、Loihi2ニューロモルフィックチップ用のIntelのLavaプラットフォームを使って実装されている。
NMNISTデータに対する動的マルチタスク分類の試験を行う。
その結果,MT-SNNはスパイキングニューロンの発火閾値を変化させることで,複数のタスクを効果的に学習することがわかった。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Forget-free Continual Learning with Soft-Winning SubNetworks [67.0373924836107]
本稿では,各タスクに対して適応バイナリ(WSN)と非バイナリサブネット(SoftNet)を逐次学習し,選択する2つの連続学習手法について検討する。
WSNとSoftNetは、各タスクに関連する作業の正規化モデルウェイトとタスク適応非バイナリマスクを共同で学習する。
タスクインクリメンタルラーニング(TIL)では、当選チケット毎に生成されるバイナリマスクを1つのNビットのバイナリディジットマスクにエンコードし、ハフマン符号化を用いてタスク数に対するネットワーク容量のサブ線形増加のために圧縮する。
論文 参考訳(メタデータ) (2023-03-27T07:53:23Z) - L-HYDRA: Multi-Head Physics-Informed Neural Networks [0.0]
我々は、マルチタスク学習(MTL)、生成モデリング、少数ショット学習のための強力なツールとして、マルチヘッド物理情報ニューラルネットワーク(MH-PINN)を構築した。
MH-PINNは、ヘッドの共有分布と同様に、基本関数として、共有体を介して複数の機能/タスクを接続する。
5つのベンチマークでMH-PINNの有効性を実証し,回帰分析における相乗的学習の可能性についても検討した。
論文 参考訳(メタデータ) (2023-01-05T16:54:01Z) - Optical multi-task learning using multi-wavelength diffractive deep
neural networks [8.543496127018567]
フォトニックニューラルネットワークは、電子の代わりに光子を使って脳にインスパイアされた情報処理技術である。
既存のアーキテクチャは単一のタスク用に設計されているが、単一のモノリシックシステム内で異なるタスクを並列に多重化できない。
本稿では,多波長拡散型深層ニューラルネットワーク(D2NN)を共同最適化法により設計し,新しいマルチタスク学習システムを提案する。
論文 参考訳(メタデータ) (2022-11-30T14:27:14Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Multi-Task Neural Processes [105.22406384964144]
我々はマルチタスク学習のためのニューラル・プロセスの新たな変種であるマルチタスク・ニューラル・プロセスを開発する。
特に,各タスク改善のための帰納的バイアスを提供するために,関数空間内の関連するタスクから伝達可能な知識を探索することを提案する。
その結果、マルチタスク学習におけるタスク間の有用な知識の伝達におけるマルチタスクニューラルプロセスの有効性が示された。
論文 参考訳(メタデータ) (2021-11-10T17:27:46Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Continuous Learning in a Single-Incremental-Task Scenario with Spike
Features [0.0]
ディープニューラルネットワーク(DNN)には、高精度コンピューティングへの依存と、シーケンシャルラーニングの実行能力の欠如という、2つの重要な欠陥がある。
ここでは,ネットワークの特徴抽出層にバイオインスパイアされたスパイクタイミング依存塑性(STDP)を用いて,意味のある特徴を抽出する。
ネットワークの分類セクションでは、私たちはシナプス単位のコストを正則化器として参照する修正シナプスインテリジェンスを使用し、破滅的な忘れ込みに対してネットワークを免疫する。
論文 参考訳(メタデータ) (2020-05-03T16:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。