論文の概要: Multi-Scale Temporal Homeostasis Enables Efficient and Robust Neural Networks
- arxiv url: http://arxiv.org/abs/2602.07009v1
- Date: Fri, 30 Jan 2026 13:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.696954
- Title: Multi-Scale Temporal Homeostasis Enables Efficient and Robust Neural Networks
- Title(参考訳): 効率的なロバストニューラルネットワークを実現するマルチスケール時空間ホメオスタシス
- Authors: MD Azizul Hakim,
- Abstract要約: Multi-Scale Temporal Homeostasis (MSTH)は、超高速(5-ms)、高速(2-s)、中速(5-min)、低速(1-hrs)の制御を人工ネットワークに統合するフレームワークである。
MSTHは、常に精度を向上し、破滅的な失敗を排除し、摂動からの回復を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks achieve strong performance on benchmark tasks but remain fundamentally brittle under perturbations, limiting their deployment in real-world settings. In contrast, biological nervous systems sustain reliable function across decades through homeostatic regulation coordinated across multiple temporal scales. Inspired by this principle, this presents Multi-Scale Temporal Homeostasis (MSTH), a biologically grounded framework that integrates ultra-fast (5-ms), fast (2-s), medium (5-min) and slow (1-hrs) regulation into artificial networks. MSTH implements the cross-scale coordination system for artificial neural networks, providing a unified temporal hierarchy that moves beyond superficial biomimicry. The cross-scale coordination enhances computational efficiency through evolutionary-refined optimization mechanisms. Experiments across molecular, graph and image classification benchmarks show that MSTH consistently improves accuracy, eliminates catastrophic failures and enhances recovery from perturbations. Moreover, MSTH outperforms both single-scale bio-inspired models and established state-of-the-art methods, demonstrating generality across diverse domains. These findings establish cross-scale temporal coordination as a core principle for stabilizing artificial neural systems, positioning MSTH as a foundation for building robust, resilient and biologically faithful intelligence.
- Abstract(参考訳): ニューラルネットワークは、ベンチマークタスクで強力なパフォーマンスを達成するが、摂動の下では基本的に不安定であり、現実の環境でのデプロイメントを制限している。
対照的に、生物学的神経系は、複数の時間スケールで調整された恒常的な調節を通じて、何十年にもわたって信頼できる機能を維持している。
この原理に触発されて、超高速(5-ms)、高速(2-s)、中速(5-min)、低速(1-hrs)の制御を人工ネットワークに統合する生物学的基盤のフレームワークであるMulti-Scale Temporal Homeostasis (MSTH)を提示する。
MSTHは、人工ニューラルネットワークの大規模な協調システムを実装し、表層バイオミミクスを超えて統合された時間階層を提供する。
クロススケールコーディネートは、進化的修正最適化機構を通じて計算効率を向上させる。
分子、グラフ、画像分類のベンチマークによる実験では、MSTHは一貫して精度を向上し、破滅的な失敗を排除し、摂動からの回復を促進する。
さらに、MSTHは単一スケールのバイオインスパイアされたモデルと最先端の手法の両方を上回り、様々な領域にまたがる一般性を示す。
これらの知見は、人工神経系を安定化するためのコア原則として、クロススケールな時間的調整を確立し、MSTHを堅牢でレジリエントで生物学的に忠実な知性を構築する基盤として位置づけた。
関連論文リスト
- Scalable Spatio-Temporal SE(3) Diffusion for Long-Horizon Protein Dynamics [51.85385061275941]
分子動力学(MD)シミュレーションは、タンパク質動力学研究のゴールドスタンダードのままである。
近年の生成モデルではシミュレーションの加速が期待できるが、長軸生成に苦慮している。
物理的に可塑性なタンパク質軌道をマイクロスケールの時間スケールで生成する拡張拡散モデルSTAR-MDを提案する。
論文 参考訳(メタデータ) (2026-02-02T14:13:28Z) - General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - Sleep-Based Homeostatic Regularization for Stabilizing Spike-Timing-Dependent Plasticity in Recurrent Spiking Neural Networks [14.487258585834374]
スパイク刺激依存性可塑性(STDP)は、スパイクニューラルネットワーク(SNN)のための生物学的に証明可能な学習メカニズムを提供する
本稿では, シナプス性ホメオスタシス仮説に着想を得たニューロモルフィック正規化手法を提案する。
論文 参考訳(メタデータ) (2026-01-13T11:17:30Z) - Fractional neural attention for efficient multiscale sequence processing [0.0]
マルチスケール情報処理の原理的フレームワークであるFNA(Frictional Neural Attention)を導入する。
FNAは、ラプラシアン分数によって支配されるレヴィ拡散によるトークン相互作用をモデル化する。
FNAは、単一の層と単一のヘッドであっても、競合するテキスト分類性能を達成する。
論文 参考訳(メタデータ) (2025-11-13T11:27:39Z) - PHASE-Net: Physics-Grounded Harmonic Attention System for Efficient Remote Photoplethysmography Measurement [63.007237197267834]
既存のディープラーニング手法は、主に生理学的モニタリングであり、理論的な堅牢性を欠いている。
本研究では,Navier-Stokes方程式のヘモダイナミックスから導かれる物理インフォームド r パラダイムを提案し,パルス信号が2次系に従うことを示す。
これは、時間的円錐ネットワーク(TCN)を使用する理論的正当性を提供する。
Phase-Netは高い効率で最先端のパフォーマンスを実現し、理論上は基礎的でデプロイ可能な r ソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-29T14:36:45Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Spiking Neural Networks with Temporal Attention-Guided Adaptive Fusion for imbalanced Multi-modal Learning [32.60363000758323]
マルチモーダルスパイクニューラルネットワーク(SNN)のための時間的注意誘導型適応融合フレームワークを提案する。
提案フレームワークは,特に時間次元において適応的融合を実装し,マルチモーダル学習におけるモダリティの不均衡を軽減する。
本システムは,学習可能なタイムワープ操作と,ベースラインSNNよりも高速なモーダリティ収束調整により,時間的ずれを解消する。
論文 参考訳(メタデータ) (2025-05-20T15:55:11Z) - SinBasis Networks: Matrix-Equivalent Feature Extraction for Wave-Like Optical Spectrograms [8.37266944852829]
フラットな入力上での線形変換として、畳み込みと注意を再解釈する統一的行列等価フレームワークを提案する。
これらの変換をCNN、ViT、Capsuleアーキテクチャに埋め込むことで、Sin-Basis Networksは周期的なモチーフに対する感度を高めることができる。
論文 参考訳(メタデータ) (2025-05-06T16:16:42Z) - Learning with Spike Synchrony in Spiking Neural Networks [3.8506283985103447]
スパイキングニューラルネットワーク(SNN)は、生物学的神経力学を模倣してエネルギー効率の高い計算を約束する。
本稿では,スパイクタイミングではなく神経発射の度合いに基づいてシナプス重みを調整する訓練手法として,スパイク同期依存塑性(SSDP)を導入する。
論文 参考訳(メタデータ) (2025-04-14T04:01:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。