論文の概要: Neural Network-Based Score Estimation in Diffusion Models: Optimization
and Generalization
- arxiv url: http://arxiv.org/abs/2401.15604v2
- Date: Tue, 6 Feb 2024 19:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:11:38.921846
- Title: Neural Network-Based Score Estimation in Diffusion Models: Optimization
and Generalization
- Title(参考訳): 拡散モデルにおけるニューラルネットワークに基づくスコア推定:最適化と一般化
- Authors: Yinbin Han, Meisam Razaviyayn, Renyuan Xu
- Abstract要約: 拡散モデルは、忠実さ、柔軟性、堅牢性を改善した高品質なサンプルを生成する際に、GANと競合する強力なツールとして登場した。
これらのモデルの主要な構成要素は、スコアマッチングを通じてスコア関数を学ぶことである。
様々なタスクにおいて経験的な成功にもかかわらず、勾配に基づくアルゴリズムが証明可能な精度でスコア関数を学習できるかどうかは不明である。
本稿では,勾配降下法により学習したニューラルネットワークを用いてスコア推定を数学的に解析する枠組みを確立する。
- 参考スコア(独自算出の注目度): 12.812942188697326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have emerged as a powerful tool rivaling GANs in generating
high-quality samples with improved fidelity, flexibility, and robustness. A key
component of these models is to learn the score function through score
matching. Despite empirical success on various tasks, it remains unclear
whether gradient-based algorithms can learn the score function with a provable
accuracy. As a first step toward answering this question, this paper
establishes a mathematical framework for analyzing score estimation using
neural networks trained by gradient descent. Our analysis covers both the
optimization and the generalization aspects of the learning procedure. In
particular, we propose a parametric form to formulate the denoising
score-matching problem as a regression with noisy labels. Compared to the
standard supervised learning setup, the score-matching problem introduces
distinct challenges, including unbounded input, vector-valued output, and an
additional time variable, preventing existing techniques from being applied
directly. In this paper, we show that with a properly designed neural network
architecture, the score function can be accurately approximated by a
reproducing kernel Hilbert space induced by neural tangent kernels.
Furthermore, by applying an early-stopping rule for gradient descent and
leveraging certain coupling arguments between neural network training and
kernel regression, we establish the first generalization error (sample
complexity) bounds for learning the score function despite the presence of
noise in the observations. Our analysis is grounded in a novel parametric form
of the neural network and an innovative connection between score matching and
regression analysis, facilitating the application of advanced statistical and
optimization techniques.
- Abstract(参考訳): 拡散モデルがgansに匹敵する強力なツールとして登場し、忠実性、柔軟性、堅牢性を改善した高品質なサンプルを生成する。
これらのモデルの鍵となる要素は、スコアマッチングを通じてスコア関数を学ぶことである。
様々なタスクで経験的な成功にもかかわらず、勾配に基づくアルゴリズムが証明可能な精度でスコア関数を学習できるかどうかは不明である。
この質問に答える第一歩として,勾配降下によって学習したニューラルネットワークを用いてスコア推定を解析するための数学的枠組みを確立した。
本分析は,学習手順の最適化と一般化の両面をカバーする。
特に,ノイズラベルを用いた回帰として,発声スコアマッチング問題を定式化するパラメトリック形式を提案する。
標準教師付き学習装置と比較して、スコアマッチング問題は、非有界入力、ベクトル値出力、追加の時間変数などの異なる課題を導入し、既存のテクニックが直接適用されないようにする。
本稿では、適切に設計されたニューラルネットワークアーキテクチャを用いて、スコア関数を、神経接核によって引き起こされる再生核ヒルベルト空間によって正確に近似できることを示す。
さらに,勾配降下の早期停止ルールを適用し,ニューラルネットワークのトレーニングとカーネル回帰の結合引数を活用することで,観測にノイズが存在するにもかかわらずスコア関数を学習するための最初の一般化誤差(サンプル複雑性)境界を確立する。
本研究は,ニューラルネットの新しいパラメトリック形式と,スコアマッチングと回帰分析の革新的な関連を基礎として,高度な統計・最適化手法の適用を促進する。
関連論文リスト
- From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - The limitation of neural nets for approximation and optimization [0.0]
最適化問題における目的関数の近似と最小化のために,ニューラルネットワークを代理モデルとして用いることに関心がある。
本研究は、一般的な非線形最適化テスト問題の目的関数を近似する最適なアクティベーション関数を決定することから始まる。
論文 参考訳(メタデータ) (2023-11-21T00:21:15Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - A Distributed Optimisation Framework Combining Natural Gradient with
Hessian-Free for Discriminative Sequence Training [16.83036203524611]
本稿では、ニューラルネットワークトレーニングのための自然勾配およびヘッセンフリー(NGHF)最適化フレームワークを提案する。
これは、自然勾配(ng)法とヘッセンフリー(hf)や他の二次法からの局所曲率情報を組み合わせた線形共役勾配(cg)アルゴリズムに依存している。
さまざまな音響モデルタイプのマルチジャンル放送データセットで実験が報告されています。
論文 参考訳(メタデータ) (2021-03-12T22:18:34Z) - Convergence rates for gradient descent in the training of
overparameterized artificial neural networks with biases [3.198144010381572]
近年、人工ニューラルネットワークは、古典的なソリューションが近づいている多数の問題に対処するための強力なツールに発展しています。
ランダムな勾配降下アルゴリズムが限界に達する理由はまだ不明である。
論文 参考訳(メタデータ) (2021-02-23T18:17:47Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。