論文の概要: From Categories to Classifier: Name-Only Continual Learning by Exploring
the Web
- arxiv url: http://arxiv.org/abs/2311.11293v1
- Date: Sun, 19 Nov 2023 10:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 21:10:07.027561
- Title: From Categories to Classifier: Name-Only Continual Learning by Exploring
the Web
- Title(参考訳): カテゴリから分類器へ: Web 探索による名前のみの継続的な学習
- Authors: Ameya Prabhu, Hasan Abed Al Kader Hammoud, Ser-Nam Lim, Bernard
Ghanem, Philip H.S. Torr, Adel Bibi
- Abstract要約: 継続的な学習はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である、広範な注釈付きデータセットの可用性に依存します。
時間とコストの制約により手動のアノテーションが禁止される、名前のみの連続学習と呼ばれる新しいパラダイムを探求する。
提案手法は,広範かつ進化を続けるインターネットを活用して,未処理のウェブ教師付きデータを検索・ダウンロードして画像分類を行う。
- 参考スコア(独自算出の注目度): 125.75085825742092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) often relies on the availability of extensive
annotated datasets, an assumption that is unrealistically time-consuming and
costly in practice. We explore a novel paradigm termed name-only continual
learning where time and cost constraints prohibit manual annotation. In this
scenario, learners adapt to new category shifts using only category names
without the luxury of annotated training data. Our proposed solution leverages
the expansive and ever-evolving internet to query and download uncurated
webly-supervised data for image classification. We investigate the reliability
of our web data and find them comparable, and in some cases superior, to
manually annotated datasets. Additionally, we show that by harnessing the web,
we can create support sets that surpass state-of-the-art name-only
classification that create support sets using generative models or image
retrieval from LAION-5B, achieving up to 25% boost in accuracy. When applied
across varied continual learning contexts, our method consistently exhibits a
small performance gap in comparison to models trained on manually annotated
datasets. We present EvoTrends, a class-incremental dataset made from the web
to capture real-world trends, created in just minutes. Overall, this paper
underscores the potential of using uncurated webly-supervised data to mitigate
the challenges associated with manual data labeling in continual learning.
- Abstract(参考訳): 継続学習(CL)はしばしば、非現実的に時間がかかり、実際にコストがかかるという仮定である広範な注釈付きデータセットの可用性に依存する。
我々は、時間とコストの制約が手動アノテーションを禁止する、名前のみ連続学習と呼ばれる新しいパラダイムを探求する。
このシナリオでは、学習者は注釈付きトレーニングデータの豪華さなしに、カテゴリ名のみを使用して新しいカテゴリシフトに適応する。
提案手法は拡張的で進化し続けているインターネットを利用して,画像分類のためのweb上教師なしデータの検索とダウンロードを行う。
我々は、Webデータの信頼性を調べ、それらが手動で注釈付きデータセットよりも優れている場合もあります。
さらに,webを活用すれば,laion-5bから生成モデルや画像検索を用いたサポートセットを作成することで,最先端の命名のみの分類を上回って,最大25%の精度向上を実現するサポートセットを作成できることを示す。
各種連続学習コンテキストに適用すると,手動で注釈付きデータセットで学習したモデルと比較して,連続的な性能差が小さい。
EvoTrendsは、Webから作られたクラスインクリメンタルなデータセットで、数分で作成された現実世界のトレンドをキャプチャします。
全体として,本論文は,連続学習における手動データラベリングに関わる課題を軽減するために,未処理のウェブ教師付きデータを使用することの可能性を強調した。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Multi-Site Class-Incremental Learning with Weighted Experts in Echocardiography [1.305420351791698]
実生活におけるパフォーマンスを維持するための心エコー図を作成するには、多様な多地点データが必要である。
本稿では,各データセットのエキスパートネットワークを学習するクラスインクリメンタル学習手法を提案する。
複数のサイトから得られた6つのデータセットの検証を行い、ビュー分類性能を改善しながら、トレーニング時間の大幅な短縮を実証した。
論文 参考訳(メタデータ) (2024-07-31T13:05:32Z) - A Self Supervised StyleGAN for Image Annotation and Classification with
Extremely Limited Labels [35.43549147657739]
画像アノテーションと分類のための自己教師型アプローチであるSS-StyleGANを提案する。
提案手法は,50と10の小さなラベル付きデータセットを用いて,強力な分類結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-26T09:46:50Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Towards Open-Domain Topic Classification [69.21234350688098]
ユーザが定義した分類をリアルタイムで受け入れるオープンドメイントピック分類システムを導入する。
ユーザは、任意の候補ラベルに対してテキストスニペットを分類し、Webインターフェースから即座にレスポンスを受け取ることができます。
論文 参考訳(メタデータ) (2023-06-29T20:25:28Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。