論文の概要: The Pursuit of Human Labeling: A New Perspective on Unsupervised
Learning
- arxiv url: http://arxiv.org/abs/2311.02940v1
- Date: Mon, 6 Nov 2023 08:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:59:19.495254
- Title: The Pursuit of Human Labeling: A New Perspective on Unsupervised
Learning
- Title(参考訳): 人間のラベル付けの追求--教師なし学習の新しい展望
- Authors: Artyom Gadetsky and Maria Brbic
- Abstract要約: HUMEは、外部の監視なしに、与えられたデータセットの人間のラベル付けを推測するためのモデルに依存しないフレームワークである。
HUMEはこの洞察を利用して、データセットのすべてのラベリングを探索し、基礎となる人間のラベリングを発見する。
提案手法は,データセットの真理ラベル付けと極めてよく相関していることを示す。
- 参考スコア(独自算出の注目度): 6.17147517649596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HUME, a simple model-agnostic framework for inferring human
labeling of a given dataset without any external supervision. The key insight
behind our approach is that classes defined by many human labelings are
linearly separable regardless of the representation space used to represent a
dataset. HUME utilizes this insight to guide the search over all possible
labelings of a dataset to discover an underlying human labeling. We show that
the proposed optimization objective is strikingly well-correlated with the
ground truth labeling of the dataset. In effect, we only train linear
classifiers on top of pretrained representations that remain fixed during
training, making our framework compatible with any large pretrained and
self-supervised model. Despite its simplicity, HUME outperforms a supervised
linear classifier on top of self-supervised representations on the STL-10
dataset by a large margin and achieves comparable performance on the CIFAR-10
dataset. Compared to the existing unsupervised baselines, HUME achieves
state-of-the-art performance on four benchmark image classification datasets
including the large-scale ImageNet-1000 dataset. Altogether, our work provides
a fundamentally new view to tackle unsupervised learning by searching for
consistent labelings between different representation spaces.
- Abstract(参考訳): HUMEは、与えられたデータセットの人間のラベル付けを外部の監視なしに推測するためのシンプルなモデルに依存しないフレームワークである。
私たちのアプローチの背後にある重要な洞察は、多くの人間のラベルで定義されたクラスは、データセットを表現するのに使われる表現空間に関係なく線形に分離可能であるということです。
HUMEはこの洞察を利用して、データセットのすべてのラベリングを探索し、基礎となる人間のラベリングを発見する。
提案手法は,データセットの基底的真理ラベリングと非常によく関連していることを示す。
事実上、トレーニング中に固定されたままの事前訓練された表現の上に線形分類器をトレーニングするだけで、我々のフレームワークはいかなる大規模な事前訓練および自己管理モデルとも互換性がある。
その単純さにもかかわらず、HUMEはSTL-10データセット上の自己教師付き表現の上の教師付き線形分類器を大きなマージンで上回り、CIFAR-10データセット上で同等のパフォーマンスを達成する。
既存の教師なしベースラインと比較して、HUMEは大規模なImageNet-1000データセットを含む4つのベンチマーク画像分類データセットで最先端のパフォーマンスを達成する。
全体として,異なる表現空間間の一貫したラベルを探索することにより,教師なし学習に取り組むための基本的な新しい視点を提供する。
関連論文リスト
- Let Go of Your Labels with Unsupervised Transfer [5.262577780347204]
データセットのラベル付けを検索する際に、完全に教師なしの転送が発生することを示す。
本稿では、この指針原理を効果的に活用し、基礎となるラベリングを明らかにするための、完全に教師なしの方法であるTURTLEを提案する。
TURTLEを26のデータセットからなる多様なベンチマークスイートで評価し、新しい最先端の教師なし性能を実現することを示す。
論文 参考訳(メタデータ) (2024-06-11T13:14:04Z) - Labeling Indoor Scenes with Fusion of Out-of-the-Box Perception Models [4.157013247909771]
ボトムアップセグメンテーション(SAM)、オブジェクト検出(Detic)、セマンティックセグメンテーション(MaskFormer)の最先端モデルを活用することを提案する。
室内環境におけるセマンティックセグメンテーションとオブジェクトインスタンス検出のための擬似ラベルを得るための,コスト効率の高いラベリング手法を開発することを目的とする。
提案手法の有効性を,Active VisionデータセットとADE20Kデータセットに示す。
論文 参考訳(メタデータ) (2023-11-17T21:58:26Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - SelfHAR: Improving Human Activity Recognition through Self-training with
Unlabeled Data [9.270269467155547]
SelfHARは、ラベルなしデータセットを利用して小さなラベル付きデータセットを補完する半教師付きモデルである。
提案手法は教師による自己学習と,ラベル付きデータセットとラベル付きデータセットの知識を融合する。
SelfHARはデータ効率が高く、教師付きアプローチの10倍のラベル付きデータを使用して、同様のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-02-11T15:40:35Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。