論文の概要: Variational Clustering: Leveraging Variational Autoencoders for Image
Clustering
- arxiv url: http://arxiv.org/abs/2005.04613v1
- Date: Sun, 10 May 2020 09:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:57:05.274022
- Title: Variational Clustering: Leveraging Variational Autoencoders for Image
Clustering
- Title(参考訳): 変分クラスタリング:変分オートエンコーダを利用した画像クラスタリング
- Authors: Vignesh Prasad, Dipanjan Das, Brojeshwar Bhowmick
- Abstract要約: 変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。
画像のクラスタリングに先立ってガウス混合を用いるVAEに基づく手法を提案する。
提案手法は,画像の潜伏分布と後部を捉える前処理を同時に学習し,データポイント間の識別に役立てる。
- 参考スコア(独自算出の注目度): 8.465172258675763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning have shown their ability to learn strong
feature representations for images. The task of image clustering naturally
requires good feature representations to capture the distribution of the data
and subsequently differentiate data points from one another. Often these two
aspects are dealt with independently and thus traditional feature learning
alone does not suffice in partitioning the data meaningfully. Variational
Autoencoders (VAEs) naturally lend themselves to learning data distributions in
a latent space. Since we wish to efficiently discriminate between different
clusters in the data, we propose a method based on VAEs where we use a Gaussian
Mixture prior to help cluster the images accurately. We jointly learn the
parameters of both the prior and the posterior distributions. Our method
represents a true Gaussian Mixture VAE. This way, our method simultaneously
learns a prior that captures the latent distribution of the images and a
posterior to help discriminate well between data points. We also propose a
novel reparametrization of the latent space consisting of a mixture of discrete
and continuous variables. One key takeaway is that our method generalizes
better across different datasets without using any pre-training or learnt
models, unlike existing methods, allowing it to be trained from scratch in an
end-to-end manner. We verify our efficacy and generalizability experimentally
by achieving state-of-the-art results among unsupervised methods on a variety
of datasets. To the best of our knowledge, we are the first to pursue image
clustering using VAEs in a purely unsupervised manner on real image datasets.
- Abstract(参考訳): ディープラーニングの最近の進歩は、画像の強力な特徴表現を学ぶ能力を示している。
画像クラスタリングのタスクは、データの分布をキャプチャし、それからデータポイントを区別するために、当然、優れた特徴表現を必要とする。
これらの2つの側面は独立して扱われるため、従来の特徴学習だけでは、データを有意義に分割するのに十分ではない。
変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。
データ中の異なるクラスタ間を効率的に判別したいので、画像を正確にクラスタ化するために、ガウス混合を用いるvaesに基づく手法を提案する。
我々は前と後の両方の分布のパラメータを共同で学習する。
我々の方法は真のガウス混合VAEを表す。
これにより,画像の潜在分布をキャプチャする前処理と後処理を同時に学習し,データ点間の判別を支援する。
また,離散変数と連続変数の混合からなる潜在空間の新たな再パラメータ化を提案する。
ひとつ重要な点は、既存の方法とは異なり、トレーニング済みや学習済みのモデルを使わずに、さまざまなデータセットをまたがってより一般化し、エンドツーエンドでスクラッチからトレーニングできることです。
各種データセットにおける教師なし手法の最先端化を図り,有効性と一般化性を実験的に検証する。
我々の知る限りでは、我々は、実画像データセット上で純粋に教師なしの方法でVAEを用いた画像クラスタリングを最初に追求している。
関連論文リスト
- Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Understanding normalization in contrastive representation learning and out-of-distribution detection [0.0]
コントラッシブ・ラーニングに基づく簡易な手法を提案し, コントラッシブ・ラーニング空間における正規サンプルを識別することにより, 分布外データを含む手法を提案する。
われわれのアプローチは、OE(outlier exposure)アプローチや、完全に自己教師付き学習アプローチとして柔軟に適用できる。
対照的な学習を通じて学んだ高品質な機能は、利用可能なアウト・オブ・ディストリビューションデータセットが十分な多様性を持っていない場合でも、OEシナリオのパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2023-12-23T16:05:47Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Deep Variational Clustering Framework for Self-labeling of Large-scale
Medical Images [2.9617653204513656]
本稿では,大規模医用画像の教師なし表現学習とクラスタリングのためのDeep Variational Clustering(DVC)フレームワークを提案する。
このアプローチでは、確率デコーダは潜在空間におけるデータ点の歪みを防止し、データ生成分布の局所構造を保存するのに役立つ。
実験結果から,提案するフレームワークはさまざまなデータセットにまたがってより一般化されていることがわかった。
論文 参考訳(メタデータ) (2021-09-22T15:01:52Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Synthetic Learning: Learn From Distributed Asynchronized Discriminator
GAN Without Sharing Medical Image Data [21.725983290877753]
我々は分散非同期識別器GAN(AsynDGAN)という名前の分散GAN学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-29T21:05:49Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Unshuffling Data for Improved Generalization [65.57124325257409]
トレーニングディストリビューションを越えた一般化は、マシンラーニングにおける中核的な課題である。
本研究では,複数の学習環境として扱われる非d.d.サブセットにデータを分割することで,アウト・オブ・ディストリビューションの一般化を向上したモデル学習を導出できることを示す。
論文 参考訳(メタデータ) (2020-02-27T03:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。