論文の概要: Rethinking cluster-conditioned diffusion models for label-free image synthesis
- arxiv url: http://arxiv.org/abs/2403.00570v2
- Date: Tue, 19 Nov 2024 11:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:34:45.674243
- Title: Rethinking cluster-conditioned diffusion models for label-free image synthesis
- Title(参考訳): ラベルなし画像合成のためのクラスター条件拡散モデルの再考
- Authors: Nikolas Adaloglou, Tim Kaiser, Felix Michels, Markus Kollmann,
- Abstract要約: 拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
クラスタ数やクラスタリング手法など,個々のクラスタリング決定要因が画像合成に与える影響について検討する。
- 参考スコア(独自算出の注目度): 1.4624458429745086
- License:
- Abstract: Diffusion-based image generation models can enhance image quality when conditioned on ground truth labels. Here, we conduct a comprehensive experimental study on image-level conditioning for diffusion models using cluster assignments. We investigate how individual clustering determinants, such as the number of clusters and the clustering method, impact image synthesis across three different datasets. Given the optimal number of clusters with respect to image synthesis, we show that cluster-conditioning can achieve state-of-the-art performance, with an FID of 1.67 for CIFAR10 and 2.17 for CIFAR100, along with a strong increase in training sample efficiency. We further propose a novel empirical method to estimate an upper bound for the optimal number of clusters. Unlike existing approaches, we find no significant association between clustering performance and the corresponding cluster-conditional FID scores. The code is available at https://github.com/HHU-MMBS/cedm-official-wavc2025.
- Abstract(参考訳): 拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
本稿では,クラスタ割り当てを用いた拡散モデルに対する画像レベルの条件付けに関する総合的研究を行う。
本稿では,クラスタ数やクラスタリング手法などのクラスタリング決定因子が,3つの異なるデータセット間の画像合成に与える影響について検討する。
画像合成に関して最適なクラスタ数を考えると、クラスタコンディショニングはCIFAR10は1.67、CIFAR100は2.17、トレーニングサンプル効率は大幅に向上する。
さらに、最適なクラスタ数の上限を推定するための新しい経験的手法を提案する。
既存の手法とは異なり、クラスタリング性能とそれに対応するクラスタ条件FIDスコアとの間に有意な関連は見つからない。
コードはhttps://github.com/HHU-MMBS/cedm-official-wavc2025で公開されている。
関連論文リスト
- Hierarchical Clustering for Conditional Diffusion in Image Generation [12.618079575423868]
本稿では,階層クラスタ上で拡散モデルを用いて,高品質なクラスタ固有世代を得る,深層生成モデルであるTreeDiffusionを紹介する。
提案するパイプラインは,データの階層構造を学習するVAEベースのクラスタリングモデルと,クラスタ毎に現実的な画像を生成する条件拡散モデルである。
論文 参考訳(メタデータ) (2024-10-22T11:35:36Z) - Image Clustering Algorithm Based on Self-Supervised Pretrained Models and Latent Feature Distribution Optimization [4.39139858370436]
本稿では,自己教師付き事前学習モデルと潜在特徴分布最適化に基づく画像クラスタリングアルゴリズムを提案する。
我々の手法は最新のクラスタリングアルゴリズムより優れ、最先端のクラスタリング結果が得られる。
論文 参考訳(メタデータ) (2024-08-04T04:08:21Z) - Image Clustering with External Guidance [33.664812922814754]
クラスタリングのコアは、監視信号を構築するために、事前の知識を取り入れている。
本稿では,クラスタリングを誘導する新たな監視信号として外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2023-10-18T14:20:55Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Improving Image Clustering through Sample Ranking and Its Application to
remote--sensing images [14.531733039462058]
本稿では,現在クラスタに属するクラスタの信頼性に基づいて,各クラスタ内のサンプルをランク付けする新しい手法を提案する。
そこで,本研究では,人口密度の密集した地域にあるか否かに基づいて,現在のクラスタに属するサンプルの確率を計算する手法を開発した。
本手法はリモートセンシング画像に効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-09-26T12:10:02Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。