論文の概要: Self-Supervised Classification Network
- arxiv url: http://arxiv.org/abs/2103.10994v1
- Date: Fri, 19 Mar 2021 19:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:37:37.442317
- Title: Self-Supervised Classification Network
- Title(参考訳): 自己監視型分類ネットワーク
- Authors: Elad Amrani, Alex Bronstein
- Abstract要約: 自己監視型エンドツーエンド分類ニューラルネットワークはラベルと表現を同時に学習する。
大規模なImageNetデータセットでうまく機能する最初の監視されていないエンドツーエンドの分類ネットワーク。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Self-Classifier -- a novel self-supervised end-to-end
classification neural network. Self-Classifier learns labels and
representations simultaneously in a single-stage end-to-end manner by
optimizing for same-class prediction of two augmented views of the same sample.
To guarantee non-degenerate solutions (i.e., solutions where all labels are
assigned to the same class), a uniform prior is asserted on the labels. We show
mathematically that unlike the regular cross-entropy loss, our approach avoids
such solutions. Self-Classifier is simple to implement and is scalable to
practically unlimited amounts of data. Unlike other unsupervised classification
approaches, it does not require any form of pre-training or the use of
expectation maximization algorithms, pseudo-labelling or external clustering.
Unlike other contrastive learning representation learning approaches, it does
not require a memory bank or a second network. Despite its relative simplicity,
our approach achieves comparable results to state-of-the-art performance with
ImageNet, CIFAR10 and CIFAR100 for its two objectives: unsupervised
classification and unsupervised representation learning. Furthermore, it is the
first unsupervised end-to-end classification network to perform well on the
large-scale ImageNet dataset. Code will be made available.
- Abstract(参考訳): 本稿では,新たなエンドツーエンド分類ニューラルネットワークであるSelf-Classifierを提案する。
自己分類器は、同一サンプルの2つの拡張ビューの同一クラス予測を最適化することにより、ラベルと表現を1段階のエンドツーエンドで同時に学習する。
非退化解(すなわち、すべてのラベルが同じクラスに割り当てられる解)を保証するために、ラベルに一様事前をアサートする。
数学的には、通常のクロスエントロピー損失とは異なり、我々の手法はそのような解を避けている。
Self-Classifierは実装が簡単で、事実上無制限のデータにスケーラブルである。
他の教師なし分類アプローチとは異なり、事前トレーニングや期待最大化アルゴリズム、擬似ラベル、外部クラスタリングの使用は不要である。
他の対照的な学習表現学習アプローチとは異なり、メモリバンクや第2のネットワークは不要である。
比較的単純ではあるが,本手法は,教師なし分類と教師なし表現学習という2つの目的のために,ImageNet, CIFAR10, CIFAR100による最先端のパフォーマンスに匹敵する結果が得られる。
さらに、大規模なImageNetデータセットでうまく機能する初の教師なしエンドツーエンド分類ネットワークである。
コードは利用可能になる。
関連論文リスト
- Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Joint Visual and Temporal Consistency for Unsupervised Domain Adaptive
Person Re-Identification [64.37745443119942]
本稿では,局所的なワンホット分類とグローバルなマルチクラス分類を組み合わせることで,視覚的・時間的整合性を両立させる。
3つの大規模ReIDデータセットの実験結果は、教師なしと教師なしの両方のドメイン適応型ReIDタスクにおいて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-07-21T14:31:27Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Unsupervised Person Re-identification via Softened Similarity Learning [122.70472387837542]
人物再識別(re-ID)はコンピュータビジョンにおいて重要なトピックである。
本稿では,ラベル付き情報を必要としないre-IDの教師なし設定について検討する。
2つの画像ベースおよびビデオベースデータセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-07T17:16:41Z) - GATCluster: Self-Supervised Gaussian-Attention Network for Image
Clustering [9.722607434532883]
画像クラスタリングのための自己教師型クラスタリングネットワーク(GATCluster)を提案する。
まず中間機能を抽出し、次に従来のクラスタリングを実行する代わりに、GATClusterセマンティッククラスタラベルを後処理なしで実行します。
大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-27T00:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。