論文の概要: Clustering by Maximizing Mutual Information Across Views
- arxiv url: http://arxiv.org/abs/2107.11635v1
- Date: Sat, 24 Jul 2021 15:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 05:25:53.351536
- Title: Clustering by Maximizing Mutual Information Across Views
- Title(参考訳): ビュー間の相互情報最大化によるクラスタリング
- Authors: Kien Do, Truyen Tran, Svetha Venkatesh
- Abstract要約: 本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
- 参考スコア(独自算出の注目度): 62.21716612888669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework for image clustering that incorporates joint
representation learning and clustering. Our method consists of two heads that
share the same backbone network - a "representation learning" head and a
"clustering" head. The "representation learning" head captures fine-grained
patterns of objects at the instance level which serve as clues for the
"clustering" head to extract coarse-grain information that separates objects
into clusters. The whole model is trained in an end-to-end manner by minimizing
the weighted sum of two sample-oriented contrastive losses applied to the
outputs of the two heads. To ensure that the contrastive loss corresponding to
the "clustering" head is optimal, we introduce a novel critic function called
"log-of-dot-product". Extensive experimental results demonstrate that our
method significantly outperforms state-of-the-art single-stage clustering
methods across a variety of image datasets, improving over the best baseline by
about 5-7% in accuracy on CIFAR10/20, STL10, and ImageNet-Dogs. Further, the
"two-stage" variant of our method also achieves better results than baselines
on three challenging ImageNet subsets.
- Abstract(参考訳): 本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
本手法は,同じバックボーンネットワークを共有する2つのヘッド – "表現学習"ヘッドと"クラスタリング"ヘッド – から構成される。
表現学習"ヘッドはインスタンスレベルでオブジェクトのきめ細かいパターンをキャプチャし、"クラスタリング"ヘッドのヒントとして、オブジェクトをクラスタに分離する粗い粒度の情報を抽出する。
モデル全体は、2つのヘッドの出力に適用される2つのサンプル指向のコントラスト損失の重み付け和を最小化し、エンドツーエンドで訓練される。
クラスタ化」ヘッドに対応するコントラスト損失が最適であることを保証するため,我々は「log-of-dot-product」と呼ばれる新しい批判機能を導入する。
CIFAR10/20, STL10, ImageNet-Dogsの精度を約5~7%向上し, 各種画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れた性能を示した。
さらに,本手法の「2段階」変種は,3つの課題であるImageNetサブセットのベースラインよりも優れた結果が得られる。
関連論文リスト
- CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Improving Image Clustering through Sample Ranking and Its Application to
remote--sensing images [14.531733039462058]
本稿では,現在クラスタに属するクラスタの信頼性に基づいて,各クラスタ内のサンプルをランク付けする新しい手法を提案する。
そこで,本研究では,人口密度の密集した地域にあるか否かに基づいて,現在のクラスタに属するサンプルの確率を計算する手法を開発した。
本手法はリモートセンシング画像に効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-09-26T12:10:02Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Large-Scale Hyperspectral Image Clustering Using Contrastive Learning [18.473767002905433]
SSCC(Spectral-Spatial Contrastive Clustering)という,スケーラブルなオンラインクラスタリングモデルを提案する。
我々は、スペクトル空間拡張プールから二重コントラスト学習を行うために、クラスタ番号の次元を持つ投影ヘッドからなる対称双対ニューラルネットワークを利用する。
結果として得られたアプローチは、バッチワイズ最適化によってエンドツーエンドでトレーニングされ、大規模なデータで堅牢になり、見当たらないデータに対して優れた一般化能力が得られる。
論文 参考訳(メタデータ) (2021-11-15T17:50:06Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。