論文の概要: Bridging Distribution Learning and Image Clustering in High-dimensional
Space
- arxiv url: http://arxiv.org/abs/2308.15667v1
- Date: Tue, 29 Aug 2023 23:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:26:27.939890
- Title: Bridging Distribution Learning and Image Clustering in High-dimensional
Space
- Title(参考訳): 高次元空間におけるブリッジング分布学習と画像クラスタリング
- Authors: Guanfang Dong, Chenqiu Zhao, Anup Basu
- Abstract要約: 分布学習は、データサンプルの集合から確率密度関数を学習することに焦点を当てる。
クラスタリングは、教師なしの方法で類似したオブジェクトをまとめることを目的としています。
本稿では,オートエンコーダを用いて画像の高次元ラテント空間への符号化を行う。
- 参考スコア(独自算出の注目度): 9.131712404284876
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Distribution learning focuses on learning the probability density function
from a set of data samples. In contrast, clustering aims to group similar
objects together in an unsupervised manner. Usually, these two tasks are
considered unrelated. However, the relationship between the two may be
indirectly correlated, with Gaussian Mixture Models (GMM) acting as a bridge.
In this paper, we focus on exploring the correlation between distribution
learning and clustering, with the motivation to fill the gap between these two
fields, utilizing an autoencoder (AE) to encode images into a high-dimensional
latent space. Then, Monte-Carlo Marginalization (MCMarg) and Kullback-Leibler
(KL) divergence loss are used to fit the Gaussian components of the GMM and
learn the data distribution. Finally, image clustering is achieved through each
Gaussian component of GMM. Yet, the "curse of dimensionality" poses severe
challenges for most clustering algorithms. Compared with the classic
Expectation-Maximization (EM) Algorithm, experimental results show that MCMarg
and KL divergence can greatly alleviate the difficulty. Based on the
experimental results, we believe distribution learning can exploit the
potential of GMM in image clustering within high-dimensional space.
- Abstract(参考訳): 分布学習は、データサンプルの集合から確率密度関数を学習することに焦点を当てる。
対照的にクラスタリングは、教師なしの方法で類似のオブジェクトをグループ化することを目的としている。
通常、この2つのタスクは無関係とみなされる。
しかし、両者の関係は間接的に相関しており、ガウス混合モデル(GMM)は橋として機能する。
本稿では,分布学習とクラスタリングの相関関係の探索に焦点をあて,これら2つのフィールド間のギャップを埋める動機付けとして,オートエンコーダ(AE)を用いて画像の高次元潜在空間への符号化を行う。
次に、GMMのガウス成分に適合し、データ分布を学習するために、MCMargとKullback-Leibler(KL)の分散損失を用いる。
最後に,GMMの各ガウス成分を用いて画像クラスタリングを行う。
しかし、「次元の計算」は、ほとんどのクラスタリングアルゴリズムに深刻な課題をもたらす。
従来の期待最大化アルゴリズムと比較して,実験結果から,MCMargとKLの発散は難易度を大幅に軽減できることが示された。
実験結果から, 分布学習は高次元空間内の画像クラスタリングにおいてgmmの可能性を活用できると信じている。
関連論文リスト
- Deep Gaussian mixture model for unsupervised image segmentation [1.3654846342364308]
多くのタスクにおいて、十分なピクセルレベルのラベルを得るのは非常に困難である。
本稿では,ガウス混合モデル(GMM)と教師なしディープラーニング技術を組み合わせた手法を提案する。
マルチシーケンスMRI画像における梗塞領域分割の例について, 様々な実験において本手法の利点を実証する。
論文 参考訳(メタデータ) (2024-04-18T15:20:59Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Federated Learning Algorithms for Generalized Mixed-effects Model (GLMM)
on Horizontally Partitioned Data from Distributed Sources [10.445522754737496]
本稿では,一般化線形混合効果モデル(GLMM)を実現するための2つのアルゴリズムを開発する。
GLMMの対数類似関数は2つの数値法により近似される。
実験結果は、シミュレーションと実世界のデータによる比較(Laplace)と優れた(Gaussian-Hermite)パフォーマンスを示す。
論文 参考訳(メタデータ) (2021-09-28T21:01:30Z) - Image Modeling with Deep Convolutional Gaussian Mixture Models [79.0660895390689]
画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
論文 参考訳(メタデータ) (2021-04-19T12:08:53Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - An unsupervised deep learning framework via integrated optimization of
representation learning and GMM-based modeling [31.334196673143257]
本稿では,ディープ表現とGMMに基づくディープモデリングの両面において,共同学習の新たな原則を提案する。
類似分野の既存の作業と比較すると、目的関数は2つの学習目標を持ち、共同で最適化されるように作成される。
クラスタ間距離を小さくすることでクラスタのコンパクト性を著しく向上し、クラスタ間距離を増大させることで分離性を向上させる。
論文 参考訳(メタデータ) (2020-09-11T04:57:03Z) - GATCluster: Self-Supervised Gaussian-Attention Network for Image
Clustering [9.722607434532883]
画像クラスタリングのための自己教師型クラスタリングネットワーク(GATCluster)を提案する。
まず中間機能を抽出し、次に従来のクラスタリングを実行する代わりに、GATClusterセマンティッククラスタラベルを後処理なしで実行します。
大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-27T00:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。