論文の概要: Benchmarking Representation Learning for Natural World Image Collections
- arxiv url: http://arxiv.org/abs/2103.16483v1
- Date: Tue, 30 Mar 2021 16:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:49:53.203849
- Title: Benchmarking Representation Learning for Natural World Image Collections
- Title(参考訳): 自然世界画像コレクションのためのベンチマーク表現学習
- Authors: Grant Van Horn, Elijah Cole, Sara Beery, Kimberly Wilber, Serge
Belongie, Oisin Mac Aodha
- Abstract要約: iNat2021とNeWTの2つの新しい自然界視覚分類データセットを紹介します。
前者は市民科学アプリケーションinaturalistのユーザによってアップロードされた10k種の2.7m画像である。
標準種別を超越した難解な自然世界バイナリ分類タスク群において,表現学習アルゴリズムの性能ベンチマークを行った。
我々は,imagenet と inat2021 を監督することなく訓練された特徴抽出器の総合的な解析を行い,様々なタスクを通して異なる学習特徴の長所と短所について考察した。
- 参考スコア(独自算出の注目度): 13.918304838054846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in self-supervised learning has resulted in models that are
capable of extracting rich representations from image collections without
requiring any explicit label supervision. However, to date the vast majority of
these approaches have restricted themselves to training on standard benchmark
datasets such as ImageNet. We argue that fine-grained visual categorization
problems, such as plant and animal species classification, provide an
informative testbed for self-supervised learning. In order to facilitate
progress in this area we present two new natural world visual classification
datasets, iNat2021 and NeWT. The former consists of 2.7M images from 10k
different species uploaded by users of the citizen science application
iNaturalist. We designed the latter, NeWT, in collaboration with domain experts
with the aim of benchmarking the performance of representation learning
algorithms on a suite of challenging natural world binary classification tasks
that go beyond standard species classification. These two new datasets allow us
to explore questions related to large-scale representation and transfer
learning in the context of fine-grained categories. We provide a comprehensive
analysis of feature extractors trained with and without supervision on ImageNet
and iNat2021, shedding light on the strengths and weaknesses of different
learned features across a diverse set of tasks. We find that features produced
by standard supervised methods still outperform those produced by
self-supervised approaches such as SimCLR. However, improved self-supervised
learning methods are constantly being released and the iNat2021 and NeWT
datasets are a valuable resource for tracking their progress.
- Abstract(参考訳): 近年の自己教師付き学習の進歩により、ラベルの明示的な監督を必要とせず、画像コレクションからリッチな表現を抽出できるモデルが生まれている。
しかし、これまでこれらのアプローチの大半は、ImageNetのような標準ベンチマークデータセットのトレーニングに限定されてきた。
植物種・動物種分類などのきめ細かい視覚分類問題は,自己指導型学習のための情報的テストベッドを提供する。
この領域の進展を促進するために、我々は2つの新しい自然界視覚分類データセットiNat2021とNeWTを提示した。
前者は市民科学アプリケーションinaturalistのユーザによってアップロードされた10k種の2.7m画像である。
後者のnewtをドメインの専門家と共同で設計し,標準種別を超越した難解な自然世界バイナリ分類タスクのスイート上で,表現学習アルゴリズムのパフォーマンスをベンチマークすることを目標とした。
これら2つの新しいデータセットは、きめ細かいカテゴリのコンテキストで、大規模表現と転送学習に関連する質問を探索できる。
我々は,imagenet と inat2021 を監督することなく訓練された特徴抽出器の総合的な解析を行い,様々なタスクを通して異なる学習特徴の長所と短所について考察した。
また,SimCLR などの自己教師型手法では,標準教師付き手法が生成する機能は依然として優れていた。
しかし、改良された自己教師付き学習手法が常にリリースされ、iNat2021とNeWTデータセットは進捗を追跡する貴重なリソースである。
関連論文リスト
- GenCo: An Auxiliary Generator from Contrastive Learning for Enhanced
Few-Shot Learning in Remote Sensing [9.504503675097137]
我々は、バックボーンを事前訓練し、同時に特徴サンプルの変種を探索するジェネレータベースのコントラスト学習フレームワーク(GenCo)を導入する。
微調整では、補助ジェネレータを使用して、特徴空間内の限られたラベル付きデータサンプルを濃縮することができる。
本稿では,2つの重要なリモートセンシングデータセットにおいて,この手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-27T03:59:19Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Current Trends in Deep Learning for Earth Observation: An Open-source
Benchmark Arena for Image Classification [7.511257876007757]
AiTLAS: Benchmark Arena"は、画像分類のための最先端のディープラーニングアプローチを評価するための、オープンソースのベンチマークフレームワークである。
本稿では,9種類の最先端アーキテクチャから派生した400以上のモデルについて,包括的比較分析を行った。
論文 参考訳(メタデータ) (2022-07-14T20:18:58Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - A Contrastive Learning Approach to Auroral Identification and
Classification [0.8399688944263843]
オーロラ画像分類の課題に対する教師なし学習の新たな応用法を提案する。
オーロラ画像の表現を学習するためのコントラスト学習(SimCLR)アルゴリズムを改良し,適応する。
当社のアプローチは、運用目的の確立されたしきい値を超え、デプロイメントと利用の準備ができていることを実証しています。
論文 参考訳(メタデータ) (2021-09-28T17:51:25Z) - Focus on the Positives: Self-Supervised Learning for Biodiversity
Monitoring [9.086207853136054]
ラベルのない画像コレクションから自己教師付き表現を学習する問題に対処する。
我々は,入力画像間の空間的関係や時間的関係などの情報を符号化する,手軽に利用可能なコンテキストデータを利用する。
地球生物多様性監視の重要課題として、人間の監督が限定された視覚的種分類タスクに適応可能な画像特徴があげられる。
論文 参考訳(メタデータ) (2021-08-14T01:12:41Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Unsupervised Image Classification for Deep Representation Learning [42.09716669386924]
埋め込みクラスタリングを使わずに、教師なしのイメージ分類フレームワークを提案する。
提案手法の有効性を証明するために,ImageNetデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-06-20T02:57:06Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。