論文の概要: Predictive Coding-based Deep Neural Network Fine-tuning for Computationally Efficient Domain Adaptation
- arxiv url: http://arxiv.org/abs/2509.20269v1
- Date: Wed, 24 Sep 2025 16:03:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.890296
- Title: Predictive Coding-based Deep Neural Network Fine-tuning for Computationally Efficient Domain Adaptation
- Title(参考訳): 予測符号化に基づく計算効率の良いドメイン適応のためのディープニューラルネットワークファインタニング
- Authors: Matteo Cardoni, Sam Leroux,
- Abstract要約: デバイス上でのドメイン適応を効率的に行うためのハイブリッドトレーニング手法を提案する。
この方法は、バックプロパゲーションを使用してオフラインでトレーニングされたディープニューラルネットワークから始まる。
予測符号化はオンライン適応に使用されており、入力データ分布の変化によって失われた精度を復元することができる。
- 参考スコア(独自算出の注目度): 5.013248430919224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep neural networks are increasingly deployed in dynamic, real-world environments, relying on a single static model is often insufficient. Changes in input data distributions caused by sensor drift or lighting variations necessitate continual model adaptation. In this paper, we propose a hybrid training methodology that enables efficient on-device domain adaptation by combining the strengths of Backpropagation and Predictive Coding. The method begins with a deep neural network trained offline using Backpropagation to achieve high initial performance. Subsequently, Predictive Coding is employed for online adaptation, allowing the model to recover accuracy lost due to shifts in the input data distribution. This approach leverages the robustness of Backpropagation for initial representation learning and the computational efficiency of Predictive Coding for continual learning, making it particularly well-suited for resource-constrained edge devices or future neuromorphic accelerators. Experimental results on the MNIST and CIFAR-10 datasets demonstrate that this hybrid strategy enables effective adaptation with a reduced computational overhead, offering a promising solution for maintaining model performance in dynamic environments.
- Abstract(参考訳): ディープニューラルネットワークは、動的で現実世界の環境にますますデプロイされているため、単一の静的モデルに依存することは、しばしば不十分である。
センサドリフトや照明変動による入力データ分布の変化は連続モデル適応を必要とする。
本稿では,バックプロパゲーションと予測符号化の強みを組み合わせることで,デバイス上でのドメイン適応を効果的に行うためのハイブリッドトレーニング手法を提案する。
この方法は、バックプロパゲーションを使用してオフラインでトレーニングされたディープニューラルネットワークから始まる。
その後、予測符号化をオンライン適応に適用し、入力データ分布の変化によって失われた精度を復元する。
このアプローチは、初期表現学習におけるバックプロパゲーションの堅牢性と、連続学習における予測符号化の計算効率を活用し、特にリソース制約されたエッジデバイスや将来のニューロモーフィックアクセラレータに適している。
MNISTとCIFAR-10データセットの実験結果は、このハイブリッド戦略が計算オーバーヘッドを削減し、動的環境におけるモデル性能を維持するための有望なソリューションを提供することを実証している。
関連論文リスト
- Self-Composing Neural Operators with Depth and Accuracy Scaling via Adaptive Train-and-Unroll Approach [12.718377513965912]
本稿では,自己合成によるニューラル演算子の効率性と精度を高める新しい枠組みを提案する。
数値偏微分方程式 (PDE) を解くための反復的手法に着想を得て, 1つのニューラル演算子ブロックを繰り返し適用して, 特定のニューラル演算子を設計する。
適応型トレイン・アンド・アンロールアプローチを導入し、トレーニング中にニューラル演算子の深さが徐々に増加する。
論文 参考訳(メタデータ) (2025-08-28T10:53:00Z) - Self Distillation via Iterative Constructive Perturbations [0.2748831616311481]
本稿では,循環最適化手法を用いてモデルとその入力データを並列に最適化し,より優れたトレーニングを行う新しいフレームワークを提案する。
モデルのパラメータをデータとデータに交互に変更することにより、本手法は適合性と一般化のギャップを効果的に解決する。
論文 参考訳(メタデータ) (2025-05-20T13:15:27Z) - Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Robust Neural Pruning with Gradient Sampling Optimization for Residual Neural Networks [0.0]
この研究は、勾配サンプリング最適化技術、特にStochGradAdamをニューラルネットワークのプルーニングプロセスに統合するパイオニアとなる。
我々の主な目的は、資源制約のあるシナリオにおいて重要なプルーニングニューラルネットワークモデルの精度を維持するという重要な課題に対処することである。
論文 参考訳(メタデータ) (2023-12-26T12:19:22Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。