論文の概要: Joint Debiased Representation and Image Clustering Learning with
Self-Supervision
- arxiv url: http://arxiv.org/abs/2209.06941v1
- Date: Wed, 14 Sep 2022 21:23:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:16:18.458571
- Title: Joint Debiased Representation and Image Clustering Learning with
Self-Supervision
- Title(参考訳): 自己スーパービジョンによる共分散表現と画像クラスタリング学習
- Authors: Shunjie-Fabian Zheng, JaeEun Nam, Emilio Dorigatti, Bernd Bischl,
Shekoofeh Azizi, Mina Rezaei
- Abstract要約: 我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
- 参考スコア(独自算出の注目度): 3.1806743741013657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning is among the most successful methods for visual
representation learning, and its performance can be further improved by jointly
performing clustering on the learned representations. However, existing methods
for joint clustering and contrastive learning do not perform well on
long-tailed data distributions, as majority classes overwhelm and distort the
loss of minority classes, thus preventing meaningful representations to be
learned. Motivated by this, we develop a novel joint clustering and contrastive
learning framework by adapting the debiased contrastive loss to avoid
under-clustering minority classes of imbalanced datasets. We show that our
proposed modified debiased contrastive loss and divergence clustering loss
improves the performance across multiple datasets and learning tasks. The
source code is available at
https://anonymous.4open.science/r/SSL-debiased-clustering
- Abstract(参考訳): コントラスト学習は視覚表現学習において最も成功した手法の一つであり、学習した表現をクラスタリングすることでその性能をさらに向上させることができる。
しかし,従来の共同クラスタリングやコントラスト学習の手法は,多数派が少数派クラスを圧倒・歪め,意味のある表現の学習を妨げているため,長期的データ分布ではうまく機能しない。
そこで我々は,不均衡データセットの下位クラスタ化を回避するために,デバイアス付きコントラスト損失を適応させることにより,新たな共同クラスタリングとコントラスト学習の枠組みを構築した。
提案した改良型デバイアス付きコントラスト損失と分散クラスタリング損失は、複数のデータセットと学習タスクのパフォーマンスを向上させることを示す。
ソースコードはhttps://anonymous.4open.science/r/SSL-debiased-clusteringで入手できる。
関連論文リスト
- Time-Series Contrastive Learning against False Negatives and Class
Imbalance [19.049773287966072]
我々は理論分析を行い、それらが基本的な問題、つまりInfoNCEの損失に基づくフレームワークに固有の偽陰性とクラス不均衡を見落としていることを発見した。
インスタンス識別タスクに携わるモデルに対して,SimCLRフレームワークに根ざした直感的な修正を導入する。
半教師付き一貫性分類を行い、マイノリティクラスの代表的能力を高める。
論文 参考訳(メタデータ) (2023-12-19T08:38:03Z) - InfoNCE Loss Provably Learns Cluster-Preserving Representations [54.28112623495274]
InfoNCEが有限個の負のサンプルで学習した表現は、データのクラスタに対して一致していることを示す。
我々の主な成果は、InfoNCEが有限個の負のサンプルで学んだ表現もまた、データのクラスタと一致していることを示すことである。
論文 参考訳(メタデータ) (2023-02-15T19:45:35Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Clustering-friendly Representation Learning via Instance Discrimination
and Feature Decorrelation [0.0]
本稿では,インスタンス識別と特徴デコレーションを用いたクラスタリングに親しみやすい表現学習手法を提案する。
CIFAR-10とImageNet-10を用いた画像クラスタリングの評価では,それぞれ81.5%,95.4%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-31T22:59:31Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。