論文の概要: A Markovian View of Iterative-Feedback Loops in Image Generative Models: Neural Resonance and Model Collapse
- arxiv url: http://arxiv.org/abs/2602.19033v1
- Date: Sun, 22 Feb 2026 04:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.454679
- Title: A Markovian View of Iterative-Feedback Loops in Image Generative Models: Neural Resonance and Model Collapse
- Title(参考訳): 画像生成モデルにおける反復フィードバックループのマルコフ的視点:ニューラル共鳴とモデル崩壊
- Authors: Vibhas Kumar Vats, David J. Crandall, Samuel Goree,
- Abstract要約: 幅広いフィードバックプロセスのクラスが潜在空間の低次元不変構造に収束することを示す。
マルコフ連鎖として反復フィードバックをモデル化することにより、この共鳴が起こるためには2つの条件が必要であることを示す。
- 参考スコア(独自算出の注目度): 7.134069145796787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI training datasets will inevitably contain AI-generated examples, leading to ``feedback'' in which the output of one model impacts the training of another. It is known that such iterative feedback can lead to model collapse, yet the mechanisms underlying this degeneration remain poorly understood. Here we show that a broad class of feedback processes converges to a low-dimensional invariant structure in latent space, a phenomenon we call neural resonance. By modeling iterative feedback as a Markov Chain, we show that two conditions are needed for this resonance to occur: ergodicity of the feedback process and directional contraction of the latent representation. By studying diffusion models on MNIST and ImageNet, as well as CycleGAN and an audio feedback experiment, we map how local and global manifold geometry evolve, and we introduce an eight-pattern taxonomy of collapse behaviors. Neural resonance provides a unified explanation for long-term degenerate behavior in generative models and provides practical diagnostics for identifying, characterizing, and eventually mitigating collapse.
- Abstract(参考訳): AIトレーニングデータセットには、必然的にAI生成例が含まれており、あるモデルの出力が別のモデルのトレーニングに影響を与える‘feedback’につながる。
このような反復的なフィードバックがモデル崩壊を引き起こすことは知られているが、この退化のメカニズムはいまだに理解されていない。
ここでは、幅広いフィードバックプロセスが潜在空間の低次元不変構造に収束することを示し、これはニューラル共鳴と呼ばれる現象である。
マルコフ連鎖として反復的フィードバックをモデル化することにより、この共鳴が起こるためには2つの条件が必要であることを示す。
MNIST と ImageNet 上の拡散モデル,CycleGAN および音声フィードバック実験を用いて,局所的および大域的多様体の幾何学的展開を図示し,崩壊挙動の8パターン分類法を導入する。
ニューラル共鳴は、生成モデルにおける長期的な退化挙動の統一的な説明を提供し、崩壊を識別、特徴づけ、そして最終的に緩和するための実践的な診断を提供する。
関連論文リスト
- Generative Model Inversion Through the Lens of the Manifold Hypothesis [98.37040155914595]
モデル反転攻撃(MIA)は、訓練されたモデルからクラス表現型サンプルを再構成することを目的としている。
最近の生成的MIAは、生成的敵ネットワークを使用して、反転過程を導く画像の事前学習を行う。
論文 参考訳(メタデータ) (2025-09-24T14:39:25Z) - Can Diffusion Models Disentangle? A Theoretical Perspective [37.21661224725838]
本稿では,拡散モデルが非交叉表現を学習する方法を理解するための新しい理論的枠組みを提案する。
我々は、一般的な非絡み付き潜在変数モデルの識別可能性条件を確立し、トレーニング力学を解析し、非絡み付き潜在部分空間モデルのサンプル複雑性境界を導出する。
論文 参考訳(メタデータ) (2025-03-31T20:46:18Z) - Understanding Representation Dynamics of Diffusion Models via Low-Dimensional Modeling [29.612011138019255]
拡散モデルにおける一様表現ダイナミクスの出現について検討する。
この一様性は、ノイズスケールをまたいだデノイング強度とクラス信頼の相互作用から生じる。
分類タスクでは、単調力学の存在は拡散モデルの一般化を確実に反映する。
論文 参考訳(メタデータ) (2025-02-09T01:58:28Z) - Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - DeNOTS: Stable Deep Neural ODEs for Time Series [0.99450247450967]
CDEは不規則時系列の時間的進化を処理する方法を提供する。
我々は、NFEの増加とモデルの「深化」のために統合時間地平線を拡大することを提案する。
また、負のフィードバックによって動的を安定化する方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T09:49:37Z) - Analyzing Diffusion as Serial Reproduction [12.389541192789167]
拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
論文 参考訳(メタデータ) (2022-09-29T14:35:28Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Geometric phase in a dissipative Jaynes-Cummings model: theoretical
explanation for resonance robustness [68.8204255655161]
我々は、ユニタリモデルと散逸型Jaynes-Cummingsモデルの両方で得られた幾何位相を計算する。
散逸モデルでは、非単体効果は、空洞壁を通る光子の流出から生じる。
幾何学的位相が堅牢であることを示し、非単体進化の下で消滅する補正を示す。
論文 参考訳(メタデータ) (2021-10-27T15:27:54Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Why Adversarial Interaction Creates Non-Homogeneous Patterns: A
Pseudo-Reaction-Diffusion Model for Turing Instability [10.933825676518195]
交叉相互作用を持つニューロン系のチューリング様パターンを観察する。
本稿では,これらの現象を過小評価するメカニズムを説明するための擬似反応拡散モデルを提案する。
論文 参考訳(メタデータ) (2020-10-01T16:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。