論文の概要: The Single-Noun Prior for Image Clustering
- arxiv url: http://arxiv.org/abs/2104.03952v1
- Date: Thu, 8 Apr 2021 17:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:21:27.901378
- Title: The Single-Noun Prior for Image Clustering
- Title(参考訳): 画像クラスタリングに先立つ単一名詞
- Authors: Niv Cohen and Yedid Hoshen
- Abstract要約: 近年,自己教師付きクラスタリング手法は精度の向上を図っているが,教師付き分類法のようには機能していない。
先述の"single-noun"は、セマンティッククラスタは、人間が単一名詞でラベル付けする概念に対応する傾向がある、と述べている。
本稿では,施設配置問題の特別な場合として,この最適化タスクを大規模に解くための簡単な手法を提案する。
- 参考スコア(独自算出の注目度): 34.97652735163338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised clustering methods have achieved increasing accuracy in
recent years but do not yet perform as well as supervised classification
methods. This contrasts with the situation for feature learning, where
self-supervised features have recently surpassed the performance of supervised
features on several important tasks. We hypothesize that the performance gap is
due to the difficulty of specifying, without supervision, which features
correspond to class differences that are semantic to humans. To reduce the
performance gap, we introduce the "single-noun" prior - which states that
semantic clusters tend to correspond to concepts that humans label by a
single-noun. By utilizing a pre-trained network that maps images and sentences
into a common space, we impose this prior obtaining a constrained optimization
task. We show that our formulation is a special case of the facility location
problem, and introduce a simple-yet-effective approach for solving this
optimization task at scale. We test our approach on several commonly reported
image clustering datasets and obtain significant accuracy gains over the best
existing approaches.
- Abstract(参考訳): 近年,自己教師付きクラスタリング手法は精度の向上を図っているが,教師付き分類法のようには機能していない。
これは、最近、自己教師付き機能がいくつかの重要なタスクにおける教師付き機能のパフォーマンスを上回った機能学習の状況とは対照的である。
性能格差は,人間に意味のあるクラスの違いに対応する特徴を監督せずに特定することが困難である,という仮説を立てる。
性能ギャップを低減するために、我々は「単一名詞」という先行概念を導入し、これは意味的クラスタが人間が単一名詞でラベル付けする概念に対応する傾向があることを述べる。
画像と文を共通の空間にマッピングする事前学習されたネットワークを利用することで、制約付き最適化タスクを事前に取得する。
本稿では,施設配置問題の特別な場合として,この最適化タスクを大規模に解くための簡単な手法を提案する。
提案手法は画像クラスタリングデータセットを用いて検証し,既存手法よりも高い精度が得られることを示す。
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Transductive Few-Shot Learning: Clustering is All You Need? [31.21306826132773]
そこで本研究では,プロトタイプをベースとした超越的数ショット学習の汎用的定式化について検討する。
提案手法は, 精度と最適化の観点から, 大きな問題にスケールアップしながら, 競争性能を向上する。
驚いたことに、私たちの一般的なモデルは、最先端の学習と比較して、すでに競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-16T16:14:01Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。