論文の概要: Sensory robustness through top-down feedback and neural stochasticity in recurrent vision models
- arxiv url: http://arxiv.org/abs/2508.07115v1
- Date: Sat, 09 Aug 2025 22:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.709018
- Title: Sensory robustness through top-down feedback and neural stochasticity in recurrent vision models
- Title(参考訳): 繰り返し視覚モデルにおけるトップダウンフィードバックと神経確率性による知覚的堅牢性
- Authors: Antonino Greco, Marco D'Alessandro, Karl J. Friston, Giovanni Pezzulo, Markus Siegel,
- Abstract要約: 我々は、トップダウンフィードバックプロジェクションの有無のイメージ分類について、畳み込みリカレントニューラルネットワーク(ConvRNN)を訓練した。
トップダウンフィードバックを持つConvRNNは、ノイズの摂動や敵の攻撃に対して、顕著な速度精度のトレードオフと堅牢性を示した。
- 参考スコア(独自算出の注目度): 0.9188951403098383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Biological systems leverage top-down feedback for visual processing, yet most artificial vision models succeed in image classification using purely feedforward or recurrent architectures, calling into question the functional significance of descending cortical pathways. Here, we trained convolutional recurrent neural networks (ConvRNN) on image classification in the presence or absence of top-down feedback projections to elucidate the specific computational contributions of those feedback pathways. We found that ConvRNNs with top-down feedback exhibited remarkable speed-accuracy trade-off and robustness to noise perturbations and adversarial attacks, but only when they were trained with stochastic neural variability, simulated by randomly silencing single units via dropout. By performing detailed analyses to identify the reasons for such benefits, we observed that feedback information substantially shaped the representational geometry of the post-integration layer, combining the bottom-up and top-down streams, and this effect was amplified by dropout. Moreover, feedback signals coupled with dropout optimally constrained network activity onto a low-dimensional manifold and encoded object information more efficiently in out-of-distribution regimes, with top-down information stabilizing the representational dynamics at the population level. Together, these findings uncover a dual mechanism for resilient sensory coding. On the one hand, neural stochasticity prevents unit-level co-adaptation albeit at the cost of more chaotic dynamics. On the other hand, top-down feedback harnesses high-level information to stabilize network activity on compact low-dimensional manifolds.
- Abstract(参考訳): 生物学的システムは視覚処理にトップダウンフィードバックを利用するが、ほとんどの人工視覚モデルは純粋にフィードフォワードまたは反復アーキテクチャを用いて画像分類に成功し、下行皮質経路の機能的重要性を疑問視する。
そこで我々は、トップダウンフィードバックプロジェクションの有無に関わらず、画像分類に基づいて畳み込みリカレントニューラルネットワーク(ConvRNN)を訓練し、これらのフィードバックパスの特定の計算貢献を解明した。
トップダウンフィードバックを持つConvRNNは、ノイズの摂動や逆行攻撃に対して、顕著な速度精度のトレードオフと頑健性を示したが、それらは、ランダムに単ユニットをドロップアウトで無作為にサイレンシングすることによって、確率的神経変動の訓練を受けた場合に限られていた。
このような利点の理由を明らかにするための詳細な分析を行うことにより、フィードバック情報が統合後の階層の表現幾何学を実質的に形成し、ボトムアップとトップダウンのストリームを組み合わせた結果、この効果はドロップアウトによって増幅された。
さらに、低次元多様体上に最適に制約されたネットワークアクティビティと結合されたフィードバック信号と、分布外状態においてより効率的に符号化されたオブジェクト情報と、人口レベルでの表現力学を安定化するトップダウン情報とを結合する。
これらの発見により、回復力のある感覚符号化のための二重のメカニズムが明らかとなった。
一方、神経確率性は、よりカオス的ダイナミクスのコストを犠牲にして、単位レベルの共適応を防ぐ。
一方、トップダウンフィードバックは、高レベル情報を利用して、コンパクトな低次元多様体上のネットワーク活動を安定化する。
関連論文リスト
- Deep Recurrence for Dynamical Segmentation Models [0.0]
本稿では、出力から入力への繰り返しループを導入し、内部状態を時間とともに改善する予測符号化フィードバック機構を提案する。
我々は,この機構を標準U-Netアーキテクチャ内に実装し,フィードバックループの安定性を確保するために,生物学的に動機付けられた2つの操作,ソフトマックス投射と指数減衰を導入する。
フィードバックモデルはノイズの多い条件下でフィードフォワードを著しく上回り、限られた監督下でより効果的に一般化することを示す。
論文 参考訳(メタデータ) (2025-07-14T10:41:07Z) - The Cooperative Network Architecture: Learning Structured Networks as Representation of Sensory Patterns [3.9848584845601014]
協調ネットワークアーキテクチャ(Cooperative Network Architecture, CNA)は,ニューロンの構造的, 繰り返し接続されたネットワークを用いて, 知覚信号を表すモデルである。
我々は、ネットフラグメントを監督なしに学習し、フレキシブルに組み換えることで、新しいパターンをエンコードし、フィギュア補完とノイズに対するレジリエンスを可能にすることを実証した。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Enhancing Dynamic CT Image Reconstruction with Neural Fields and Optical Flow [0.0]
偏微分方程式に基づく動的逆問題に対する明示的運動正規化器の導入の利点を示す。
また、ニューラルネットワークをグリッドベースの解法と比較し、前者はPSNRで後者より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-03T13:07:29Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Minimizing Control for Credit Assignment with Strong Feedback [65.59995261310529]
ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
論文 参考訳(メタデータ) (2022-04-14T22:06:21Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。