論文の概要: From Categories to Classifier: Name-Only Continual Learning by Exploring
the Web
- arxiv url: http://arxiv.org/abs/2311.11293v1
- Date: Sun, 19 Nov 2023 10:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 21:10:07.027561
- Title: From Categories to Classifier: Name-Only Continual Learning by Exploring
the Web
- Title(参考訳): カテゴリから分類器へ: Web 探索による名前のみの継続的な学習
- Authors: Ameya Prabhu, Hasan Abed Al Kader Hammoud, Ser-Nam Lim, Bernard
Ghanem, Philip H.S. Torr, Adel Bibi
- Abstract要約: 継続的な学習はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である、広範な注釈付きデータセットの可用性に依存します。
時間とコストの制約により手動のアノテーションが禁止される、名前のみの連続学習と呼ばれる新しいパラダイムを探求する。
提案手法は,広範かつ進化を続けるインターネットを活用して,未処理のウェブ教師付きデータを検索・ダウンロードして画像分類を行う。
- 参考スコア(独自算出の注目度): 125.75085825742092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) often relies on the availability of extensive
annotated datasets, an assumption that is unrealistically time-consuming and
costly in practice. We explore a novel paradigm termed name-only continual
learning where time and cost constraints prohibit manual annotation. In this
scenario, learners adapt to new category shifts using only category names
without the luxury of annotated training data. Our proposed solution leverages
the expansive and ever-evolving internet to query and download uncurated
webly-supervised data for image classification. We investigate the reliability
of our web data and find them comparable, and in some cases superior, to
manually annotated datasets. Additionally, we show that by harnessing the web,
we can create support sets that surpass state-of-the-art name-only
classification that create support sets using generative models or image
retrieval from LAION-5B, achieving up to 25% boost in accuracy. When applied
across varied continual learning contexts, our method consistently exhibits a
small performance gap in comparison to models trained on manually annotated
datasets. We present EvoTrends, a class-incremental dataset made from the web
to capture real-world trends, created in just minutes. Overall, this paper
underscores the potential of using uncurated webly-supervised data to mitigate
the challenges associated with manual data labeling in continual learning.
- Abstract(参考訳): 継続学習(CL)はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である広範な注釈付きデータセットの可用性に依存する。
我々は、時間とコストの制約が手動アノテーションを禁止する、名前のみ連続学習と呼ばれる新しいパラダイムを探求する。
このシナリオでは、学習者は注釈付きトレーニングデータの豪華さなしに、カテゴリ名のみを使用して新しいカテゴリシフトに適応する。
提案手法は拡張的で進化し続けているインターネットを利用して,画像分類のためのweb上教師なしデータの検索とダウンロードを行う。
我々は、Webデータの信頼性を調べ、それらが手動で注釈付きデータセットよりも優れている場合もあります。
さらに,webを活用すれば,laion-5bから生成モデルや画像検索を用いたサポートセットを作成することで,最先端の命名のみの分類を上回って,最大25%の精度向上を実現するサポートセットを作成できることを示す。
各種連続学習コンテキストに適用すると,手動で注釈付きデータセットで学習したモデルと比較して,連続的な性能差が小さい。
EvoTrendsは、Webから作られたクラスインクリメンタルなデータセットで、数分で作成された現実世界のトレンドをキャプチャします。
全体として,本論文は,連続学習における手動データラベリングに関わる課題を軽減するために,未処理のウェブ教師付きデータを使用することの可能性を強調した。
関連論文リスト
- A Self Supervised StyleGAN for Image Annotation and Classification with
Extremely Limited Labels [35.43549147657739]
画像アノテーションと分類のための自己教師型アプローチであるSS-StyleGANを提案する。
提案手法は,50と10の小さなラベル付きデータセットを用いて,強力な分類結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-26T09:46:50Z) - Bridging the Gap: Learning Pace Synchronization for Open-World
Semi-Supervised Learning [49.07038093130949]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
モデルは、正確な監督情報によって、前者をより早く学習する。
本稿では,1) クラス分布の推定に基づく適応的マージンの損失,2) 学習ペースの同期化,2) 出力空間の同じクラスからサンプルを抽出する擬似ラベルコントラストクラスタリングについて紹介する。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Towards Open-Domain Topic Classification [69.21234350688098]
ユーザが定義した分類をリアルタイムで受け入れるオープンドメイントピック分類システムを導入する。
ユーザは、任意の候補ラベルに対してテキストスニペットを分類し、Webインターフェースから即座にレスポンスを受け取ることができます。
論文 参考訳(メタデータ) (2023-06-29T20:25:28Z) - SwAMP: Swapped Assignment of Multi-Modal Pairs for Cross-Modal Retrieval [15.522964295287425]
未知のクラスを自己ラベル化した新たな損失関数を提案する。
我々は,テキストベースビデオ検索,スケッチベース画像検索,画像テキスト検索など,実世界のクロスモーダル検索問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2021-11-10T17:17:09Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - A Survey on Deep Learning with Noisy Labels: How to train your model
when you cannot trust on the annotations? [21.562089974755125]
ノイズラベルの存在下でのディープラーニングモデルのトレーニングを改善するために,いくつかのアプローチが提案されている。
本稿では,ロバストな損失,サンプル重み付け,サンプル選択,メタラーニング,組み合わせアプローチの3つのグループでアルゴリズムを分類する。
論文 参考訳(メタデータ) (2020-12-05T15:45:20Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。