論文の概要: Rethinking cluster-conditioned diffusion models for label-free image synthesis
- arxiv url: http://arxiv.org/abs/2403.00570v2
- Date: Tue, 19 Nov 2024 11:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:34:45.674243
- Title: Rethinking cluster-conditioned diffusion models for label-free image synthesis
- Title(参考訳): ラベルなし画像合成のためのクラスター条件拡散モデルの再考
- Authors: Nikolas Adaloglou, Tim Kaiser, Felix Michels, Markus Kollmann,
- Abstract要約: 拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
クラスタ数やクラスタリング手法など,個々のクラスタリング決定要因が画像合成に与える影響について検討する。
- 参考スコア(独自算出の注目度): 1.4624458429745086
- License:
- Abstract: Diffusion-based image generation models can enhance image quality when conditioned on ground truth labels. Here, we conduct a comprehensive experimental study on image-level conditioning for diffusion models using cluster assignments. We investigate how individual clustering determinants, such as the number of clusters and the clustering method, impact image synthesis across three different datasets. Given the optimal number of clusters with respect to image synthesis, we show that cluster-conditioning can achieve state-of-the-art performance, with an FID of 1.67 for CIFAR10 and 2.17 for CIFAR100, along with a strong increase in training sample efficiency. We further propose a novel empirical method to estimate an upper bound for the optimal number of clusters. Unlike existing approaches, we find no significant association between clustering performance and the corresponding cluster-conditional FID scores. The code is available at https://github.com/HHU-MMBS/cedm-official-wavc2025.
- Abstract(参考訳): 拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
本稿では,クラスタ割り当てを用いた拡散モデルに対する画像レベルの条件付けに関する総合的研究を行う。
本稿では,クラスタ数やクラスタリング手法などのクラスタリング決定因子が,3つの異なるデータセット間の画像合成に与える影響について検討する。
画像合成に関して最適なクラスタ数を考えると、クラスタコンディショニングはCIFAR10は1.67、CIFAR100は2.17、トレーニングサンプル効率は大幅に向上する。
さらに、最適なクラスタ数の上限を推定するための新しい経験的手法を提案する。
既存の手法とは異なり、クラスタリング性能とそれに対応するクラスタ条件FIDスコアとの間に有意な関連は見つからない。
コードはhttps://github.com/HHU-MMBS/cedm-official-wavc2025で公開されている。
関連論文リスト
- Hierarchical Clustering for Conditional Diffusion in Image Generation [12.618079575423868]
本稿では,階層クラスタ上で拡散モデルを用いて,高品質なクラスタ固有世代を得る,深層生成モデルであるTreeDiffusionを紹介する。
提案するパイプラインは,データの階層構造を学習するVAEベースのクラスタリングモデルと,クラスタ毎に現実的な画像を生成する条件拡散モデルである。
論文 参考訳(メタデータ) (2024-10-22T11:35:36Z) - Image Clustering Algorithm Based on Self-Supervised Pretrained Models and Latent Feature Distribution Optimization [4.39139858370436]
本稿では,自己教師付き事前学習モデルと潜在特徴分布最適化に基づく画像クラスタリングアルゴリズムを提案する。
我々の手法は最新のクラスタリングアルゴリズムより優れ、最先端のクラスタリング結果が得られる。
論文 参考訳(メタデータ) (2024-08-04T04:08:21Z) - A consensus-constrained parsimonious Gaussian mixture model for
clustering hyperspectral images [0.0]
食品エンジニアは、ハイパースペクトル画像を使用して、食品サンプルのタイプと品質を分類する。
これらの手法を訓練するには、各トレーニング画像の各ピクセルにラベルを付ける必要がある。
ハイパースペクトル画像に画素をラベル付けするために, コンセンサス制約付き擬似ガウス混合モデル (ccPGMM) を提案する。
論文 参考訳(メタデータ) (2024-03-05T22:23:43Z) - ClusterFormer: Clustering As A Universal Visual Learner [80.79669078819562]
CLUSTERFORMERは、トランスフォーマーを用いたCLUSTERingパラダイムに基づくユニバーサルビジョンモデルである。
不均一な視覚タスクに様々なレベルのクラスタリングの粒度で対処することができる。
その有効性のために、コンピュータビジョンにおける普遍モデルにおけるパラダイムシフトを触媒できることを期待します。
論文 参考訳(メタデータ) (2023-09-22T22:12:30Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - On Mitigating Hard Clusters for Face Clustering [48.39472979642971]
顔クラスタリングは、大規模な未ラベルの顔画像を使用して顔認識システムをスケールアップするための有望な方法である。
我々はNDDe(Neighborhood-Diffusion-based Density)とTPDi(Transition-Probability-based Distance)の2つの新しいモジュールを紹介した。
複数のベンチマーク実験により,各モジュールが最終性能に寄与することが示された。
論文 参考訳(メタデータ) (2022-07-25T03:55:15Z) - Multi-Facet Clustering Variational Autoencoders [9.150555507030083]
画像などの高次元データは通常、クラスタリング可能な複数の興味深い特徴を特徴付ける。
MFCVAE(Multi-Facet Clustering Variational Autoencoders)を導入する。
MFCVAEは複数のクラスタリングを同時に学習し、完全に教師なしでエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-06-09T17:36:38Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。