論文の概要: Analyzing Diffusion as Serial Reproduction
- arxiv url: http://arxiv.org/abs/2209.14821v1
- Date: Thu, 29 Sep 2022 14:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:26:56.077766
- Title: Analyzing Diffusion as Serial Reproduction
- Title(参考訳): シリアル再生としての拡散の解析
- Authors: Raja Marjieh, Ilia Sucholutsky, Thomas A. Langlois, Nori Jacoby,
Thomas L. Griffiths
- Abstract要約: 拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
- 参考スコア(独自算出の注目度): 12.389541192789167
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Diffusion models are a class of generative models that learn to synthesize
samples by inverting a diffusion process that gradually maps data into noise.
While these models have enjoyed great success recently, a full theoretical
understanding of their observed properties is still lacking, in particular,
their weak sensitivity to the choice of noise family and the role of adequate
scheduling of noise levels for good synthesis. By identifying a correspondence
between diffusion models and a well-known paradigm in cognitive science known
as serial reproduction, whereby human agents iteratively observe and reproduce
stimuli from memory, we show how the aforementioned properties of diffusion
models can be explained as a natural consequence of this correspondence. We
then complement our theoretical analysis with simulations that exhibit these
key features. Our work highlights how classic paradigms in cognitive science
can shed light on state-of-the-art machine learning problems.
- Abstract(参考訳): 拡散モデルは、データを徐々にノイズにマッピングする拡散過程を反転させることでサンプルを合成することを学ぶ生成モデルのクラスである。
これらのモデルは最近大きな成功を収めているが、その観測された性質の完全な理論的理解、特にノイズファミリーの選択に対する感度が弱く、良い合成のためにノイズレベルを適切にスケジューリングする役割が欠如している。
人間のエージェントが記憶からの刺激を反復的に観察し再現する「連続的再現」として知られる認知科学における拡散モデルとよく知られたパラダイムの対応を同定することにより、上記の拡散モデルの性質をこの対応の自然な結果として説明できることを示す。
そして、これらの重要な特徴を示すシミュレーションで理論解析を補完する。
私たちの研究は、認知科学の古典的なパラダイムが、最先端の機械学習問題に光を当てる方法を強調しています。
関連論文リスト
- How Diffusion Models Learn to Factorize and Compose [14.161975556325796]
拡散モデルは、トレーニングセットに表示されない可能性のある要素を組み合わせた、フォトリアリスティックな画像を生成することができる。
本研究では,拡散モデルが構成可能な特徴の意味的意味的・要因的表現を学習するかどうかを考察する。
論文 参考訳(メタデータ) (2024-08-23T17:59:03Z) - An Overview of Diffusion Models: Applications, Guided Generation, Statistical Rates and Optimization [59.63880337156392]
拡散モデルはコンピュータビジョン、オーディオ、強化学習、計算生物学において大きな成功を収めた。
経験的成功にもかかわらず、拡散モデルの理論は非常に限定的である。
本稿では,前向きな理論や拡散モデルの手法を刺激する理論的露光について述べる。
論文 参考訳(メタデータ) (2024-04-11T14:07:25Z) - A Phase Transition in Diffusion Models Reveals the Hierarchical Nature
of Data [55.748186000425996]
最近の進歩は、拡散モデルが高品質な画像を生成することを示している。
我々はこの現象を階層的なデータ生成モデルで研究する。
本分析は拡散モデルにおける時間とスケールの関係を特徴付ける。
論文 参考訳(メタデータ) (2024-02-26T19:52:33Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - On Memorization in Diffusion Models [46.656797890144105]
より小さなデータセットでは記憶の挙動が生じる傾向があることを示す。
我々は、有効モデル記憶(EMM)の観点から、影響因子がこれらの記憶行動に与える影響を定量化する。
本研究は,拡散モデル利用者にとって実用的意義を持ち,深部生成モデルの理論研究の手がかりを提供する。
論文 参考訳(メタデータ) (2023-10-04T09:04:20Z) - Directional diffusion models for graph representation learning [9.457273750874357]
我々は方向拡散モデルと呼ばれる新しいモデルのクラスを提案する。
これらのモデルは前方拡散過程にデータ依存、異方性、指向性ノイズを含む。
我々は,2つのグラフ表現学習タスクに焦点をあてて,12の公開データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-06-22T21:27:48Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Conditional Diffusion Probabilistic Model for Speech Enhancement [101.4893074984667]
本稿では,観測された雑音の音声信号の特徴を拡散・逆過程に組み込む新しい音声強調アルゴリズムを提案する。
本実験では, 代表的な生成モデルと比較して, 提案手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-10T18:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。