論文の概要: Deep Recurrence for Dynamical Segmentation Models
- arxiv url: http://arxiv.org/abs/2507.10143v1
- Date: Mon, 14 Jul 2025 10:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.757603
- Title: Deep Recurrence for Dynamical Segmentation Models
- Title(参考訳): 動的セグメンテーションモデルの深部再帰
- Authors: David Calhas, Arlindo L. Oliveira,
- Abstract要約: 本稿では、出力から入力への繰り返しループを導入し、内部状態を時間とともに改善する予測符号化フィードバック機構を提案する。
我々は,この機構を標準U-Netアーキテクチャ内に実装し,フィードバックループの安定性を確保するために,生物学的に動機付けられた2つの操作,ソフトマックス投射と指数減衰を導入する。
フィードバックモデルはノイズの多い条件下でフィードフォワードを著しく上回り、限られた監督下でより効果的に一般化することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While biological vision systems rely heavily on feedback connections to iteratively refine perception, most artificial neural networks remain purely feedforward, processing input in a single static pass. In this work, we propose a predictive coding inspired feedback mechanism that introduces a recurrent loop from output to input, allowing the model to refine its internal state over time. We implement this mechanism within a standard U-Net architecture and introduce two biologically motivated operations, softmax projection and exponential decay, to ensure stability of the feedback loop. Through controlled experiments on a synthetic segmentation task, we show that the feedback model significantly outperforms its feedforward counterpart in noisy conditions and generalizes more effectively with limited supervision. Notably, feedback achieves above random performance with just two training examples, while the feedforward model requires at least four. Our findings demonstrate that feedback enhances robustness and data efficiency, and offer a path toward more adaptive and biologically inspired neural architectures. Code is available at: github.com/DCalhas/feedback_segmentation.
- Abstract(参考訳): 生物学的視覚システムは感覚を反復的に洗練するためにフィードバック接続に大きく依存するが、ほとんどの人工ニューラルネットワークは純粋にフィードフォワードに留まり、入力を1つの静的パスで処理する。
本研究では,出力から入力への繰り返しループを導入し,内部状態を時間とともに改善する予測符号化型フィードバック機構を提案する。
我々は,この機構を標準U-Netアーキテクチャ内に実装し,フィードバックループの安定性を確保するために,生物学的に動機付けられた2つの操作,ソフトマックス投射と指数減衰を導入する。
合成セグメンテーションタスクの制御実験により、フィードバックモデルがノイズの多い条件下でフィードフォワードを著しく上回り、限られた監督下でより効果的に一般化することを示す。
特に、フィードバックは2つのトレーニング例だけでランダムなパフォーマンスを達成するが、フィードフォワードモデルは少なくとも4つを必要としている。
我々の研究は、フィードバックが堅牢性とデータ効率を高め、より適応的で生物学的にインスパイアされたニューラルアーキテクチャへの道筋を提供することを示した。
コードは、github.com/DCalhas/feedback_segmentationで入手できる。
関連論文リスト
- Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [55.914891182214475]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Neural Residual Diffusion Models for Deep Scalable Vision Generation [17.931568104324985]
我々は,統一的かつ大規模に拡張可能なニューラルネットワーク残差拡散モデルフレームワーク(Neural-RDM)を提案する。
提案したニューラル残差モデルは、画像およびビデオ生成ベンチマークの最先端スコアを取得する。
論文 参考訳(メタデータ) (2024-06-19T04:57:18Z) - Analysing the Behaviour of Tree-Based Neural Networks in Regression Tasks [3.912345988363511]
本稿では、回帰課題の文脈において、木に基づくニューラルネットワークモデルの振る舞いを復号化するための取り組みを行う。
我々は,ツリーベースのCNN,Code2Vec,Transformerベースのメソッドといった確立されたモデルの応用を拡張し,ASTに解析することでソースコードの実行時間を予測する。
提案するデュアルトランスは,多様なデータセットにまたがる顕著な適応性とロバストな性能を示す。
論文 参考訳(メタデータ) (2024-06-17T11:47:14Z) - Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks? [18.92828441607381]
埋め込みは観察によく適合するが、同時に誤った動的挙動を持つモデルを誘導することを示す。
2つの加法的ベクトル場成分をパラメトリした単純な埋め込み自由な代替法を提案する。
論文 参考訳(メタデータ) (2023-05-20T12:41:47Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Observer-Feedback-Feedforward Controller Structures in Reinforcement
Learning [0.0]
本稿では、強化学習に基づく非線形適応制御における構造化ニューラルネットワークの利用を提案する。
焦点は部分的に観測可能なシステムであり、状態とフィードフォワードオブザーバと状態フィードバックとフィードフォワードコントローラを分離したニューラルネットワークを備えている。
論文 参考訳(メタデータ) (2023-04-20T12:59:21Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Minimizing Control for Credit Assignment with Strong Feedback [65.59995261310529]
ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
論文 参考訳(メタデータ) (2022-04-14T22:06:21Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。