論文の概要: SPICED: A Synaptic Homeostasis-Inspired Framework for Unsupervised Continual EEG Decoding
- arxiv url: http://arxiv.org/abs/2509.17439v1
- Date: Mon, 22 Sep 2025 07:28:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.267627
- Title: SPICED: A Synaptic Homeostasis-Inspired Framework for Unsupervised Continual EEG Decoding
- Title(参考訳): SPICED: 教師なし連続脳波復号のためのシナプス型ホメオスタシスにインスパイアされたフレームワーク
- Authors: Yangxuan Zhou, Sha Zhao, Jiquan Wang, Haiteng Jiang, Shijian Li, Tao Li, Gang Pan,
- Abstract要約: SPICEDは、非教師なし脳波復号のためのシナプス的ホメオスタシス機構を統合するニューロモルフィックフレームワークである。
シナプス性ホメオスタシスにおける相互作用は、タスク識別記憶の痕跡を動的に強化し、有害記憶を弱める。
SPICEDは、長期連続学習中の有害記憶の再生優先順位付けを抑えることにより、破滅的な忘れを効果的に軽減する。
- 参考スコア(独自算出の注目度): 26.363350337553968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human brain achieves dynamic stability-plasticity balance through synaptic homeostasis. Inspired by this biological principle, we propose SPICED: a neuromorphic framework that integrates the synaptic homeostasis mechanism for unsupervised continual EEG decoding, particularly addressing practical scenarios where new individuals with inter-individual variability emerge continually. SPICED comprises a novel synaptic network that enables dynamic expansion during continual adaptation through three bio-inspired neural mechanisms: (1) critical memory reactivation; (2) synaptic consolidation and (3) synaptic renormalization. The interplay within synaptic homeostasis dynamically strengthens task-discriminative memory traces and weakens detrimental memories. By integrating these mechanisms with continual learning system, SPICED preferentially replays task-discriminative memory traces that exhibit strong associations with newly emerging individuals, thereby achieving robust adaptations. Meanwhile, SPICED effectively mitigates catastrophic forgetting by suppressing the replay prioritization of detrimental memories during long-term continual learning. Validated on three EEG datasets, SPICED show its effectiveness.
- Abstract(参考訳): ヒトの脳はシナプス性ホメオスタシスを通じて動的安定性と塑性バランスを達成する。
この生物学的原理にインスパイアされたSPICEDは、非教師なし連続脳波復号のためのシナプス的ホメオスタシス機構を統合したニューロモルフィックフレームワークである。
SPICEDは、(1)臨界記憶の再活性化、(2)シナプス凝縮、(3)シナプス再正常化という3つのバイオインスパイアされた神経機構を通じて、連続的適応中の動的拡張を可能にする新しいシナプスネットワークから構成される。
シナプス性ホメオスタシスにおける相互作用は、タスク識別記憶の痕跡を動的に強化し、有害記憶を弱める。
これらのメカニズムを連続学習システムと統合することにより、SPICEDは、新しく出現した個人と強い関係を示すタスク識別メモリトレースを優先的に再生し、堅牢な適応を実現する。
一方、SPICEDは、長期連続学習において、有害記憶の再生優先順位付けを抑えることにより、破滅的な忘れを効果的に軽減する。
3つのEEGデータセットで検証されたSPICEDは、その有効性を示している。
関連論文リスト
- Learning with Spike Synchrony in Spiking Neural Networks [3.8506283985103447]
スパイキングニューラルネットワーク(SNN)は、生物学的神経力学を模倣してエネルギー効率の高い計算を約束する。
本稿では,スパイクタイミングではなく神経発射の度合いに基づいてシナプス重みを調整する訓練手法として,スパイク同期依存塑性(SSDP)を導入する。
論文 参考訳(メタデータ) (2025-04-14T04:01:40Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Neuroplastic Expansion in Deep Reinforcement Learning [9.297543779239826]
学習エージェントにおける可塑性の喪失は、強化学習における学習と適応を著しく阻害する。
本稿では,認知科学における皮質拡大に触発された新しいアプローチであるニューロプラスティック・エクスパンジョン(NE)を提案する。
NEは、ネットワークを小さな初期サイズからフル次元に動的に拡大することにより、トレーニングプロセス全体を通して学習性と適応性を維持します。
論文 参考訳(メタデータ) (2024-10-10T14:51:14Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Continual learning benefits from multiple sleep mechanisms: NREM, REM,
and Synaptic Downscaling [51.316408685035526]
先行学習を失うことなく、新しいタスクやスキルを連続して学習することは、人工ニューラルネットワークと生物学的ニューラルネットワークの両方にとって、計算上の課題である。
本稿では,3つの異なる睡眠成分のモデル化が,人工ニューラルネットワークの連続学習にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-09-09T13:45:27Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Reinforcement Learning Framework for Deep Brain Stimulation Study [10.505656411009388]
脳内の機能不全ニューロンは時折同期して活動し、多くの神経疾患を引き起こすとされる。
本稿では、このニューロンの集合的挙動をエミュレートする最初の強化学習体育館の枠組みについて述べる。
我々は,RLによる3つの信号伝達系に対する同期の抑制に成功し,フレームワークの雑音に対する安定性を特徴付けるとともに,複数のPPOエージェントを係合させることにより不要な振動を除去した。
論文 参考訳(メタデータ) (2020-02-22T16:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。