論文の概要: Structural features of the fly olfactory circuit mitigate the stability-plasticity dilemma in continual learning
- arxiv url: http://arxiv.org/abs/2502.01427v1
- Date: Mon, 03 Feb 2025 15:06:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:05:22.204620
- Title: Structural features of the fly olfactory circuit mitigate the stability-plasticity dilemma in continual learning
- Title(参考訳): ハエ嗅覚回路の構造的特徴は連続学習における安定性・塑性ジレンマを緩和する
- Authors: Heming Zou, Yunliang Zang, Xiangyang Ji,
- Abstract要約: 本研究では,Fly Modelと呼ばれる,現代の機械学習手法と統合可能なプラグイン・アンド・プレイコンポーネントとして,フライ嗅覚回路を導入する。
その結果,Fly Modelは記憶の安定性と学習の可塑性を両立させ,現在の継続的な学習戦略の限界を克服することを示した。
- 参考スコア(独自算出の注目度): 46.74846593421828
- License:
- Abstract: Artificial neural networks face the stability-plasticity dilemma in continual learning, while the brain can maintain memories and remain adaptable. However, the biological strategies for continual learning and their potential to inspire learning algorithms in neural networks are poorly understood. This study presents a minimal model of the fly olfactory circuit to investigate the biological strategies that support continual odor learning. We introduce the fly olfactory circuit as a plug-and-play component, termed the Fly Model, which can integrate with modern machine learning methods to address this dilemma. Our findings demonstrate that the Fly Model enhances both memory stability and learning plasticity, overcoming the limitations of current continual learning strategies. We validated its effectiveness across various challenging continual learning scenarios using commonly used datasets. The fly olfactory system serves as an elegant biological circuit for lifelong learning, offering a module that enhances continual learning with minimal additional computational cost for machine learning.
- Abstract(参考訳): ニューラルネットワークは連続学習において安定性と塑性のジレンマに直面し、脳は記憶を維持して適応することができる。
しかし、連続学習の生物学的戦略とそのニューラルネットワークにおける学習アルゴリズムを刺激する可能性については理解されていない。
本研究では, ハエ嗅覚回路の最小モデルを用いて, 連続的な嗅覚学習を支援する生物学的戦略について検討する。
本研究では,このジレンマに対処する現代の機械学習手法と統合可能なFly Modelと呼ばれるプラグイン・アンド・プレイコンポーネントとして,フライ嗅覚回路を導入する。
その結果,Fly Modelは記憶の安定性と学習の可塑性を両立させ,現在の継続的な学習戦略の限界を克服することを示した。
一般的なデータセットを用いて,難易度の高い連続学習シナリオにまたがって有効性を検証した。
ハエ嗅覚システムは生涯学習のためのエレガントな生物学的回路として機能し、機械学習に最小限の計算コストで連続学習を強化するモジュールを提供する。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Emulating Brain-like Rapid Learning in Neuromorphic Edge Computing [3.735012564657653]
デジタルニューロモルフィック技術は、学習の2段階を用いて脳の神経とシナプスの過程をシミュレートする。
イベント駆動型視覚センサデータとIntel Loihiニューロモルフィックプロセッサの塑性ダイナミクスを用いたアプローチを実証する。
提案手法は任意の可塑性モデルで展開可能であり,学習の迅速化と適応を要求される状況に適用可能である。
論文 参考訳(メタデータ) (2024-08-28T13:51:52Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Meta-Learning in Spiking Neural Networks with Reward-Modulated STDP [2.179313476241343]
本研究では,海馬と前頭前皮質にインスパイアされた生物工学的メタラーニングモデルを提案する。
我々の新しいモデルはスパイクベースのニューロモーフィックデバイスに容易に適用でき、ニューロモーフィックハードウェアにおける高速な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-07T13:08:46Z) - Online Distillation with Continual Learning for Cyclic Domain Shifts [52.707212371912476]
ドメインシフトの影響を低減するために,連続学習手法のパワーを活用して解を提案する。
我々の研究は、オンライン蒸留と継続的な学習の分野における重要な一歩であり、現実世界のアプリケーションに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-04-03T11:15:05Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - A Biologically Plausible Audio-Visual Integration Model for Continual
Learning [7.680515385940673]
生物学的に妥当なオーディオ視覚統合モデル(AVIM)を提案する。
マルチコンパートメントのHodgkin-Huxleyニューロンを用いてモデルを構築し、カルシウムベースのシナプスタギングとキャプチャをモデルの学習規則として採用する。
実験の結果,提案したAVIMは,最先端の連続学習性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-07-17T09:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。