論文の概要: Understanding and Exploiting Plasticity for Non-stationary Network Resource Adaptation
- arxiv url: http://arxiv.org/abs/2505.01584v1
- Date: Fri, 02 May 2025 21:03:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.184938
- Title: Understanding and Exploiting Plasticity for Non-stationary Network Resource Adaptation
- Title(参考訳): 非定常ネットワーク資源適応のための塑性の理解と爆発
- Authors: Zhiqiang He, Zhi Liu,
- Abstract要約: ニューラルネットワークは可塑性損失に悩まされ,ネットワークの進化に適応する能力が著しく損なわれていることを示す。
リセットサイレントニューロン (ReSiN) は, 前向きおよび後向きの伝播状態によって誘導される戦略的ニューロンリセットを介して神経可塑性を保っている。
適応型ビデオストリーミングシステムの実装において、ReSiNは既存のソリューションよりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 7.036243456626816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting to non-stationary network conditions presents significant challenges for resource adaptation. However, current solutions primarily rely on stationary assumptions. While data-driven reinforcement learning approaches offer promising solutions for handling network dynamics, our systematic investigation reveals a critical limitation: neural networks suffer from plasticity loss, significantly impeding their ability to adapt to evolving network conditions. Through theoretical analysis of neural propagation mechanisms, we demonstrate that existing dormant neuron metrics inadequately characterize neural plasticity loss. To address this limitation, we have developed the Silent Neuron theory, which provides a more comprehensive framework for understanding plasticity degradation. Based on these theoretical insights, we propose the Reset Silent Neuron (ReSiN), which preserves neural plasticity through strategic neuron resets guided by both forward and backward propagation states. In our implementation of an adaptive video streaming system, ReSiN has shown significant improvements over existing solutions, achieving up to 168% higher bitrate and 108% better quality of experience (QoE) while maintaining comparable smoothness. Furthermore, ReSiN consistently outperforms in stationary environments, demonstrating its robust adaptability across different network conditions.
- Abstract(参考訳): 非定常ネットワーク条件への適応は、リソース適応に重大な課題をもたらす。
しかし、現在の解は主に定常的な仮定に依存している。
データ駆動強化学習アプローチは、ネットワークダイナミクスを扱うための有望なソリューションを提供するが、我々の体系的な調査は、ニューラルネットワークが可塑性損失に悩まされ、進化するネットワーク条件に適応する能力を著しく損なうという、重大な制限を明らかにしている。
神経伝達機構の理論解析を通じて、既存の休眠ニューロンの計測値が神経可塑性損失を不適切に特徴付けることを示した。
この制限に対処するため、我々は可塑性劣化を理解するためのより包括的な枠組みを提供するサイレントニューロン理論を開発した。
これらの理論的知見に基づき、前向きおよび後向きの伝播状態によって誘導される戦略的ニューロンリセットを通して神経可塑性を保ったリセットサイレントニューロン(ReSiN)を提案する。
適応型ビデオストリーミングシステムの実装において、ReSiNは既存のソリューションよりも大幅に改善され、最大168%のビットレート、108%のクオリティ・オブ・エクスペリエンス(QoE)を実現した。
さらに、ReSiNは定常環境において一貫して優れており、異なるネットワーク条件にまたがる堅牢な適応性を示している。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Understanding plasticity in neural networks [41.79540750236036]
可塑性は、ニューラルネットワークが新しい情報に反応して予測を素早く変更する能力である。
深層ニューラルネットワークは、比較的単純な学習問題であっても、トレーニングの過程で可塑性を失うことが知られている。
論文 参考訳(メタデータ) (2023-03-02T18:47:51Z) - Global quantitative robustness of regression feed-forward neural
networks [0.0]
我々は回帰分解点の概念を回帰ニューラルネットワークに適用する。
我々は、故障率のプロキシにより、サンプル外損失によって測定された性能を比較した。
この結果は、ニューラルネットワークのトレーニングにロバストな損失関数を使うことを動機付けている。
論文 参考訳(メタデータ) (2022-11-18T09:57:53Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。