論文の概要: MIX'EM: Unsupervised Image Classification using a Mixture of Embeddings
- arxiv url: http://arxiv.org/abs/2007.09502v2
- Date: Fri, 2 Oct 2020 23:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:51:22.224851
- Title: MIX'EM: Unsupervised Image Classification using a Mixture of Embeddings
- Title(参考訳): MIX'EM:混合埋め込みを用いた教師なし画像分類
- Authors: Ali Varamesh, Tinne Tuytelaars
- Abstract要約: 教師なし画像分類のための新しいソリューションMIX'EMを提案する。
STL10, CIFAR10, CIFAR100-20データセットに関する広範な実験と分析を行った。
その結果,最先端の分類精度は78%,82%,44%であった。
- 参考スコア(独自算出の注目度): 44.29313588655997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MIX'EM, a novel solution for unsupervised image classification.
MIX'EM generates representations that by themselves are sufficient to drive a
general-purpose clustering algorithm to deliver high-quality classification.
This is accomplished by building a mixture of embeddings module into a
contrastive visual representation learning framework in order to disentangle
representations at the category level. It first generates a set of embedding
and mixing coefficients from a given visual representation, and then combines
them into a single embedding. We introduce three techniques to successfully
train MIX'EM and avoid degenerate solutions; (i) diversify mixture components
by maximizing entropy, (ii) minimize instance conditioned component entropy to
enforce a clustered embedding space, and (iii) use an associative embedding
loss to enforce semantic separability. By applying (i) and (ii), semantic
categories emerge through the mixture coefficients, making it possible to apply
(iii). Subsequently, we run K-means on the representations to acquire semantic
classification. We conduct extensive experiments and analyses on STL10,
CIFAR10, and CIFAR100-20 datasets, achieving state-of-the-art classification
accuracy of 78\%, 82\%, and 44\%, respectively. To achieve robust and high
accuracy, it is essential to use the mixture components to initialize K-means.
Finally, we report competitive baselines (70\% on STL10) obtained by applying
K-means to the "normalized" representations learned using the contrastive loss.
- Abstract(参考訳): 教師なし画像分類のための新しいソリューションMIX'EMを提案する。
mix'emは、汎用クラスタリングアルゴリズムを駆使して高品質な分類を実現するのに十分な表現を生成する。
これは、カテゴリレベルで表現をアンタングルするために、組込みモジュールを対照的な視覚表現学習フレームワークに組み込むことによって達成される。
まず、与えられた視覚的表現から埋め込み係数と混合係数のセットを生成し、それらを単一の埋め込みに結合する。
我々はMIX'EMのトレーニングに成功し、退化した解を避けるための3つの手法を紹介した。
一 エントロピーを最大化して混合成分を多様化すること。
(ii)インスタンス条件付きコンポーネントエントロピーを最小化し、クラスタ化された埋め込み空間を強制し、
(iii)意味的分離性を強制するために連想的埋め込み損失を用いる。
適用することで
(i)および
(二)混合係数を通して意味圏が出現し、適用することができる
(iii)
その後、K-meansを表現上で実行し、意味分類を取得する。
STL10, CIFAR10, CIFAR100-20データセットの広範な実験と解析を行い, それぞれ78\%, 82\%, 44\%の最先端分類精度を達成した。
堅牢かつ高精度を達成するためには、混合成分を用いてK平均を初期化することが不可欠である。
最後に、コントラスト損失を用いて学習した「正規化」表現にK平均を適用して得られる競合ベースライン(STL10の70%)を報告する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A consensus-constrained parsimonious Gaussian mixture model for
clustering hyperspectral images [0.0]
食品エンジニアは、ハイパースペクトル画像を使用して、食品サンプルのタイプと品質を分類する。
これらの手法を訓練するには、各トレーニング画像の各ピクセルにラベルを付ける必要がある。
ハイパースペクトル画像に画素をラベル付けするために, コンセンサス制約付き擬似ガウス混合モデル (ccPGMM) を提案する。
論文 参考訳(メタデータ) (2024-03-05T22:23:43Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Image Processing and Machine Learning for Hyperspectral Unmixing: An Overview and the HySUPP Python Package [80.11512905623417]
アンミキシングは、ピクセル内のエンドメンバーの分数量を推定する。
本稿では,先進的および従来型のアンミックス手法の概要について述べる。
シミュレーションされた3つのデータセットと2つの実際のデータセット上でのアンミックス手法の性能を比較した。
論文 参考訳(メタデータ) (2023-08-18T08:10:41Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - ScanMix: Learning from Severe Label Noise via Semantic Clustering and
Semi-Supervised Learning [33.376639002442914]
提案するトレーニングアルゴリズムScanMixは、セマンティッククラスタリングと半教師付き学習(SSL)を組み合わせて、特徴表現を改善する。
ScanMixは期待最大化(EM)フレームワークに基づいて設計されており、Eステップはトレーニングイメージをクラスタ化するために潜む変数の値を推定します。
CIFAR-10 と CIFAR-100 の対称,非対称,セマンティックラベルノイズの標準ベンチマークおよび WebVision の大規模実ラベルノイズについて,その現状について述べる。
論文 参考訳(メタデータ) (2021-03-21T13:43:09Z) - Learning Embeddings for Image Clustering: An Empirical Study of Triplet
Loss Approaches [10.42820615166362]
我々は,Triplet Lossによる特徴空間埋め込みの文脈において,k平均クラスタリングと相関クラスタリングという2つの異なる画像クラスタリングの目的を評価する。
我々は、三重項損失の2つの人気のあるバージョンを最適化することで、差別的特徴を学習するために畳み込みニューラルネットワークを訓練する。
本稿では,形式的クラスタリングの目的に対して望ましい特性を示し,既存の手法より優れる,新しい単純なトリプルトロスの定式化を提案する。
論文 参考訳(メタデータ) (2020-07-06T23:38:14Z) - Efficient Clustering for Stretched Mixtures: Landscape and Optimality [4.2111286819721485]
本稿では,2つの楕円分布の平衡混合から抽出された未ラベルのサンプルを受信する正準クラスタリング問題について考察する。
非最適クラスタリング関数は、サンプルサイズが一定の統計的目標を超えると、望ましい幾何学的性質を示す。
論文 参考訳(メタデータ) (2020-03-22T17:57:07Z) - Residual-Sparse Fuzzy $C$-Means Clustering Incorporating Morphological
Reconstruction and Wavelet frames [146.63177174491082]
Fuzzy $C$-Means (FCM)アルゴリズムは、形態的再構成操作とタイトウェーブレットフレーム変換を組み込んでいる。
特徴集合とその理想値の間の残差に対して$ell_0$正規化項を付与することにより、改良されたFCMアルゴリズムを提案する。
合成, 医用, カラー画像に対する実験結果から, 提案アルゴリズムは効率的かつ効率的であり, 他のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-02-14T10:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。