論文の概要: Score Neural Operator: A Generative Model for Learning and Generalizing Across Multiple Probability Distributions
- arxiv url: http://arxiv.org/abs/2410.08549v2
- Date: Tue, 15 Oct 2024 06:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 23:14:57.435357
- Title: Score Neural Operator: A Generative Model for Learning and Generalizing Across Multiple Probability Distributions
- Title(参考訳): スコアニューラル演算子:複数の確率分布の学習と一般化のための生成モデル
- Authors: Xinyu Liao, Aoyang Qin, Jacob Seidman, Junqi Wang, Wei Wang, Paris Perdikaris,
- Abstract要約: 我々は,複数の確率分布からスコア関数へのマッピングを統一されたフレームワーク内で学習する,$emphScore Neural Operatorを紹介した。
提案手法は,新しい分布からの1つのイメージを利用すれば,その分布から複数の異なる画像を生成することができる。
- 参考スコア(独自算出の注目度): 7.851040662069365
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Most existing generative models are limited to learning a single probability distribution from the training data and cannot generalize to novel distributions for unseen data. An architecture that can generate samples from both trained datasets and unseen probability distributions would mark a significant breakthrough. Recently, score-based generative models have gained considerable attention for their comprehensive mode coverage and high-quality image synthesis, as they effectively learn an operator that maps a probability distribution to its corresponding score function. In this work, we introduce the $\emph{Score Neural Operator}$, which learns the mapping from multiple probability distributions to their score functions within a unified framework. We employ latent space techniques to facilitate the training of score matching, which tends to over-fit in the original image pixel space, thereby enhancing sample generation quality. Our trained Score Neural Operator demonstrates the ability to predict score functions of probability measures beyond the training space and exhibits strong generalization performance in both 2-dimensional Gaussian Mixture Models and 1024-dimensional MNIST double-digit datasets. Importantly, our approach offers significant potential for few-shot learning applications, where a single image from a new distribution can be leveraged to generate multiple distinct images from that distribution.
- Abstract(参考訳): 既存の生成モデルはトレーニングデータから単一の確率分布を学習することに限定されており、未知のデータに対して新しい分布に一般化することはできない。
トレーニングされたデータセットと目に見えない確率分布からサンプルを生成するアーキテクチャは、大きなブレークスルーとなるだろう。
近年、スコアベースの生成モデルは、確率分布を対応するスコア関数にマッピングする演算子を効果的に学習するため、網羅的なモードカバレッジと高品質な画像合成において大きな注目を集めている。
本稿では,複数の確率分布からスコア関数へのマッピングを統一されたフレームワーク内で学習する$\emph{Score Neural Operator}$を紹介する。
我々は、原画像の画素空間に過度に適合する傾向にあるスコアマッチングの訓練を容易にするために、潜時空間技術を用いて、サンプル生成品質を向上させる。
訓練されたスコアニューラル演算子は、トレーニング空間を超えて確率測度のスコア関数を予測する能力を示し、2次元ガウス混合モデルと1024次元MNIST二重桁データセットの両方において強力な一般化性能を示す。
重要な点として,本手法は,新しい分布からの1つのイメージを活用して,その分布から複数の異なる画像を生成する,数ショット学習アプリケーションに有意な可能性を秘めている。
関連論文リスト
- Hierarchical Visual Categories Modeling: A Joint Representation Learning and Density Estimation Framework for Out-of-Distribution Detection [28.442470704073767]
本稿では,分布外データと分布内データとを分離する階層型視覚カテゴリーモデリング手法を提案する。
我々は、CIFAR、iNaturalist、SUN、Places、Textures、ImageNet-O、OpenImage-Oを含む7つの人気のあるベンチマーク実験を行った。
我々の視覚表現は古典的手法で学習した特徴と比較して競争力がある。
論文 参考訳(メタデータ) (2024-08-28T07:05:46Z) - Deep Generative Sampling in the Dual Divergence Space: A Data-efficient & Interpretative Approach for Generative AI [29.13807697733638]
自然画像の生成的サンプリングにおける顕著な成果の上に構築する。
我々は、画像に似たサンプルを生成するという、画期的な挑戦を、潜在的に過度に野心的に提案する。
統計上の課題は、小さなサンプルサイズであり、時には数百人の被験者で構成されている。
論文 参考訳(メタデータ) (2024-04-10T22:35:06Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Synthetic Learning: Learn From Distributed Asynchronized Discriminator
GAN Without Sharing Medical Image Data [21.725983290877753]
我々は分散非同期識別器GAN(AsynDGAN)という名前の分散GAN学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-29T21:05:49Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。