論文の概要: Rethinking cluster-conditioned diffusion models
- arxiv url: http://arxiv.org/abs/2403.00570v1
- Date: Fri, 1 Mar 2024 14:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 17:06:11.918414
- Title: Rethinking cluster-conditioned diffusion models
- Title(参考訳): クラスター条件拡散モデルの再考
- Authors: Nikolas Adaloglou and Tim Kaiser and Felix Michels and Markus Kollmann
- Abstract要約: 画像クラスタリングに関する個々のコンポーネントが3つのデータセット間の画像合成にどのように影響するかを明らかにする。
画像合成(視覚群)に関して最適なクラスタの粒度を考えると,クラスタコンディショニングは最先端のFIDを実現することができる。
本稿では,特徴に基づくクラスタリングのみを用いて,視覚群の探索空間を小さくする上層クラスタ境界を導出する手法を提案する。
- 参考スコア(独自算出の注目度): 1.597617022056624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a comprehensive experimental study on image-level conditioning for
diffusion models using cluster assignments. We elucidate how individual
components regarding image clustering impact image synthesis across three
datasets. By combining recent advancements from image clustering and diffusion
models, we show that, given the optimal cluster granularity with respect to
image synthesis (visual groups), cluster-conditioning can achieve
state-of-the-art FID (i.e. 1.67, 2.17 on CIFAR10 and CIFAR100 respectively),
while attaining a strong training sample efficiency. Finally, we propose a
novel method to derive an upper cluster bound that reduces the search space of
the visual groups using solely feature-based clustering. Unlike existing
approaches, we find no significant connection between clustering and
cluster-conditional image generation. The code and cluster assignments will be
released.
- Abstract(参考訳): 本稿では,クラスタ割り当てを用いた拡散モデルの画像レベル条件付けに関する包括的実験を行う。
画像クラスタリングに関する個々のコンポーネントが3つのデータセット間の画像合成にどのように影響するかを明らかにする。
画像クラスタリングと拡散モデルの最近の進歩を組み合わせることで、画像合成(視覚群)に関して最適なクラスタ粒度を考慮すれば、クラスタコンディショニングは最先端のFID(CIFAR10では1.67、CIFAR100では2.17)を達成でき、強力なトレーニングサンプル効率が得られることを示す。
最後に,機能ベースのクラスタリングのみを用いて,視覚群の探索空間を減少させる上層クラスタ境界を導出する新しい手法を提案する。
既存のアプローチと異なり、クラスタリングとクラスタ条件画像生成の間には大きな関係がない。
コードとクラスタの割り当てがリリースされる。
関連論文リスト
- Hierarchical Clustering for Conditional Diffusion in Image Generation [12.618079575423868]
本稿では,階層クラスタ上で拡散モデルを用いて,高品質なクラスタ固有世代を得る,深層生成モデルであるTreeDiffusionを紹介する。
提案するパイプラインは,データの階層構造を学習するVAEベースのクラスタリングモデルと,クラスタ毎に現実的な画像を生成する条件拡散モデルである。
論文 参考訳(メタデータ) (2024-10-22T11:35:36Z) - Image Clustering Algorithm Based on Self-Supervised Pretrained Models and Latent Feature Distribution Optimization [4.39139858370436]
本稿では,自己教師付き事前学習モデルと潜在特徴分布最適化に基づく画像クラスタリングアルゴリズムを提案する。
我々の手法は最新のクラスタリングアルゴリズムより優れ、最先端のクラスタリング結果が得られる。
論文 参考訳(メタデータ) (2024-08-04T04:08:21Z) - A consensus-constrained parsimonious Gaussian mixture model for
clustering hyperspectral images [0.0]
食品エンジニアは、ハイパースペクトル画像を使用して、食品サンプルのタイプと品質を分類する。
これらの手法を訓練するには、各トレーニング画像の各ピクセルにラベルを付ける必要がある。
ハイパースペクトル画像に画素をラベル付けするために, コンセンサス制約付き擬似ガウス混合モデル (ccPGMM) を提案する。
論文 参考訳(メタデータ) (2024-03-05T22:23:43Z) - ClusterFormer: Clustering As A Universal Visual Learner [80.79669078819562]
CLUSTERFORMERは、トランスフォーマーを用いたCLUSTERingパラダイムに基づくユニバーサルビジョンモデルである。
不均一な視覚タスクに様々なレベルのクラスタリングの粒度で対処することができる。
その有効性のために、コンピュータビジョンにおける普遍モデルにおけるパラダイムシフトを触媒できることを期待します。
論文 参考訳(メタデータ) (2023-09-22T22:12:30Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - On Mitigating Hard Clusters for Face Clustering [48.39472979642971]
顔クラスタリングは、大規模な未ラベルの顔画像を使用して顔認識システムをスケールアップするための有望な方法である。
我々はNDDe(Neighborhood-Diffusion-based Density)とTPDi(Transition-Probability-based Distance)の2つの新しいモジュールを紹介した。
複数のベンチマーク実験により,各モジュールが最終性能に寄与することが示された。
論文 参考訳(メタデータ) (2022-07-25T03:55:15Z) - Multi-Facet Clustering Variational Autoencoders [9.150555507030083]
画像などの高次元データは通常、クラスタリング可能な複数の興味深い特徴を特徴付ける。
MFCVAE(Multi-Facet Clustering Variational Autoencoders)を導入する。
MFCVAEは複数のクラスタリングを同時に学習し、完全に教師なしでエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-06-09T17:36:38Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。