論文の概要: DMPCN: Dynamic Modulated Predictive Coding Network with Hybrid Feedback Representations
- arxiv url: http://arxiv.org/abs/2504.14665v1
- Date: Sun, 20 Apr 2025 16:14:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 20:54:28.402983
- Title: DMPCN: Dynamic Modulated Predictive Coding Network with Hybrid Feedback Representations
- Title(参考訳): DMPCN:ハイブリッドフィードバック表現を用いた動的変調予測符号化
- Authors: A S M Sharifuzzaman Sagar, Yu Chen, Jun Hoong Chan,
- Abstract要約: 本稿では,深部予測符号化ネットワークのための動的変調を用いたハイブリッド予測誤差フィードバック機構を提案する。
また,高精度な予測誤差最小化に着目して精度を向上させるために,このフレームワークに適した損失関数を提案する。
実験により, モデルが他の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 2.9923113351846076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional predictive coding networks, inspired by theories of brain function, consistently achieve promising results across various domains, extending their influence into the field of computer vision. However, the performance of the predictive coding networks is limited by their error feedback mechanism, which traditionally employs either local or global recurrent updates, leading to suboptimal performance in processing both local and broader details simultaneously. In addition, traditional predictive coding networks face difficulties in dynamically adjusting to the complexity and context of varying input data, which is crucial for achieving high levels of performance in diverse scenarios. Furthermore, there is a gap in the development and application of specific loss functions that could more effectively guide the model towards optimal performance. To deal with these issues, this paper introduces a hybrid prediction error feedback mechanism with dynamic modulation for deep predictive coding networks by effectively combining global contexts and local details while adjusting feedback based on input complexity. Additionally, we present a loss function tailored to this framework to improve accuracy by focusing on precise prediction error minimization. Experimental results demonstrate the superiority of our model over other approaches, showcasing faster convergence and higher predictive accuracy in CIFAR-10, CIFAR-100, MNIST, and FashionMNIST datasets.
- Abstract(参考訳): 脳機能理論にインスパイアされた従来の予測符号化ネットワークは、様々な領域にわたる有望な結果を一貫して達成し、その影響をコンピュータビジョンの分野にまで広げた。
しかし、予測符号化ネットワークの性能は、従来は局所的またはグローバルな更新を使っていたエラーフィードバック機構によって制限されており、局所的およびより広い詳細を同時に処理する際の準最適性能をもたらす。
さらに、従来の予測符号化ネットワークは、様々な入力データの複雑さとコンテキストを動的に調整する上で困難に直面しており、多様なシナリオにおいて高いレベルのパフォーマンスを達成するのに不可欠である。
さらに、モデルをより効果的に最適な性能に導くことができる特定の損失関数の開発と応用にはギャップがある。
これらの問題に対処するために,グローバルなコンテキストと局所的な詳細を効果的に組み合わせ,入力複雑性に基づいてフィードバックを調整し,動的変調を施したハイブリッド予測エラーフィードバック機構を提案する。
さらに,高精度な予測誤差最小化に着目し,精度を向上させるために,このフレームワークに適した損失関数を提案する。
CIFAR-10, CIFAR-100, MNIST, FashionMNISTデータセットにおいて, モデルが他の手法よりも優れていることを示す。
関連論文リスト
- Precoder Learning for Weighted Sum Rate Maximization [5.305346885414619]
重み付き和プリコーディング(WSRM)のためのプリコーダを学習するための新しいディープニューラルネットワーク(DNN)を提案する。
既存のユニタリと比較して、提案したDNNは、最適プリコーディングポリシーに固有の結合と置換のバランスを利用する。
シミュレーションの結果,提案手法は学習性能と一般化性能の両方の観点から学習方法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-06T14:45:38Z) - Imitation Learning of MPC with Neural Networks: Error Guarantees and Sparsification [5.260346080244568]
本稿では,ニューラルネットワークを用いた模倣モデル予測制御系における近似誤差の有界化のためのフレームワークを提案する。
本稿では,この手法を用いて,性能保証付き安定型ニューラルネットワークコントローラを設計する方法について論じる。
論文 参考訳(メタデータ) (2025-01-07T10:18:37Z) - Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Predictive Coding Based Multiscale Network with Encoder-Decoder LSTM for
Video Prediction [1.2537993038844142]
将来のビデオフレーム予測のためのマルチスケール予測符号化モデルを提案する。
我々のモデルは、より高レベルなニューロンが粗い予測(より低解像度)を生成するマルチスケールアプローチ(粗から微細)を採用している。
本稿では,長期予測における予測誤差の蓄積を軽減するためのトレーニング戦略のいくつかの改善を提案する。
論文 参考訳(メタデータ) (2022-12-22T12:15:37Z) - Predictive coding, precision and natural gradients [2.1601966913620325]
学習精度の高い階層型予測符号化ネットワークは,教師あり学習課題や教師なし学習課題を解くことができることを示す。
イメージ入力の教師なし自動符号化に適用すると、決定論的ネットワークは階層的に整理され、非絡み合った埋め込みを生成する。
論文 参考訳(メタデータ) (2021-11-12T21:05:03Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。