論文の概要: Learning with an Evolving Class Ontology
- arxiv url: http://arxiv.org/abs/2210.04993v1
- Date: Mon, 10 Oct 2022 19:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 13:44:57.491651
- Title: Learning with an Evolving Class Ontology
- Title(参考訳): 進化するクラスオントロジーによる学習
- Authors: Zhiqiu Lin, Deepak Pathak, Yu-Xiong Wang, Deva Ramanan, Shu Kong
- Abstract要約: 生涯学習者は時間とともに進化する概念を認識する必要がある。
あまり探索されていない一般的なシナリオは、古いクラスを洗練/拡張するラベルで学習することです。
- 参考スコア(独自算出の注目度): 82.89062737922869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong learners must recognize concept vocabularies that evolve over time.
A common yet underexplored scenario is learning with class labels over time
that refine/expand old classes. For example, humans learn to recognize ${\tt
dog}$ before dog breeds. In practical settings, dataset $\textit{versioning}$
often introduces refinement to ontologies, such as autonomous vehicle
benchmarks that refine a previous ${\tt vehicle}$ class into ${\tt school-bus}$
as autonomous operations expand to new cities. This paper formalizes a protocol
for studying the problem of $\textit{Learning with Evolving Class Ontology}$
(LECO). LECO requires learning classifiers in distinct time periods (TPs); each
TP introduces a new ontology of "fine" labels that refines old ontologies of
"coarse" labels (e.g., dog breeds that refine the previous ${\tt dog}$). LECO
explores such questions as whether to annotate new data or relabel the old, how
to leverage coarse labels, and whether to finetune the previous TP's model or
train from scratch. To answer these questions, we leverage insights from
related problems such as class-incremental learning. We validate them under the
LECO protocol through the lens of image classification (CIFAR and iNaturalist)
and semantic segmentation (Mapillary). Our experiments lead to surprising
conclusions; while the current status quo is to relabel existing datasets with
new ontologies (such as COCO-to-LVIS or Mapillary1.2-to-2.0), LECO demonstrates
that a far better strategy is to annotate $\textit{new}$ data with the new
ontology. However, this produces an aggregate dataset with inconsistent
old-vs-new labels, complicating learning. To address this challenge, we adopt
methods from semi-supervised and partial-label learning. Such strategies can
surprisingly be made near-optimal, approaching an "oracle" that learns on the
aggregate dataset exhaustively labeled with the newest ontology.
- Abstract(参考訳): 生涯学習者は時間とともに進化する概念語彙を認識する必要がある。
よくあるが未熟なシナリオは、古いクラスを洗練/拡張するクラスラベルを学習することだ。
例えば、人間は犬種の前に${\tt dog}$を認識することを学ぶ。
実際の設定では、データセット$\textit{versioning}$はしばしばオントロジーに洗練を導入します。例えば、以前の${\ttの車両を洗練させる自動運転車ベンチマークなどです。
本稿では,$\textit{learning with evolving class ontology}$ (leco) の問題を研究するためのプロトコルを定式化する。
LECOは異なる期間(TP)で学習する分類器を必要とし、各TPは「粗い」ラベルの古いオントロジーを洗練させる「細い」ラベルの新しいオントロジーを導入する(例えば、以前の${\tt dog}$を洗練させる犬種など)。
LECOは、新しいデータをアノテートするか、古いデータをラバー化するか、粗いラベルをどのように活用するか、以前のTPのモデルを微調整するか、スクラッチからトレーニングするか、といった質問を探索している。
これらの疑問に答えるために、クラス増分学習のような関連する問題からの洞察を活用する。
画像分類のレンズ(CIFARとiNaturalist)とセマンティックセグメンテーション(Mapillary)を用いてLECOプロトコルで検証する。
現在の状況は、新しいオントロジー(COCO-to-LVISやMapillary1.2-to-2.0など)で既存のデータセットをラベリングすることにあるが、LECOはより優れた戦略として、新しいオントロジーで$\textit{new}$データをアノテートすることを示しています。
しかし、これは古いvs-newラベルが一貫性のない集約データセットを生成し、学習を複雑にする。
この課題に対処するために,半教師付き学習と部分ラベル学習の手法を採用する。
このような戦略は驚くほど最適にでき、最新のオントロジーでラベル付けされた集合データセットから学習する"オークル"に近づきます。
関連論文リスト
- Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Context-Aware Meta-Learning [52.09326317432577]
本研究では,大規模言語モデルのエミュレートを行うメタ学習アルゴリズムを提案する。
我々のアプローチは、11のメタラーニングベンチマークのうち8つで最先端のアルゴリズムであるP>M>Fを上回り、一致します。
論文 参考訳(メタデータ) (2023-10-17T03:35:27Z) - Learning from Label Proportions: Bootstrapping Supervised Learners via Belief Propagation [18.57840057487926]
LLP(Learning from Label Proportions)は、トレーニング中にバッグと呼ばれるインスタンスのグループに対して、アグリゲートレベルのラベルしか利用できない学習問題である。
この設定は、プライバシー上の配慮から、広告や医療などの領域で発生する。
本稿では,この問題に対して,反復的に2つの主要なステップを実行する新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T06:09:26Z) - Improving Zero-Shot Generalization for CLIP with Synthesized Prompts [135.4317555866831]
既存のほとんどのメソッドは、実世界のアプリケーションでは保持できない全てのクラスにラベル付きデータを必要とする。
既存の微調整法を改善するために,textbfSynttextbfHestextbfIzed textbfPrompts(textbfSHIP)と呼ばれるプラグアンドプレイ生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T15:15:45Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - SEAL: Simultaneous Label Hierarchy Exploration And Learning [9.701914280306118]
本稿では,従来の階層構造に従う潜在ラベルでラベルを増大させることにより,ラベル階層を探索する新しいフレームワークを提案する。
本手法では,木間距離空間上の1-ワッサーシュタイン計量を客観的関数として用いて,データ駆動型ラベル階層を同時に学習し,半教師付き学習を行う。
論文 参考訳(メタデータ) (2023-04-26T08:31:59Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Apple Tasting Revisited: Bayesian Approaches to Partially Monitored Online Binary Classification [4.204990010424083]
本稿では,学習者がラベルを未知の真のクラスを持つ項目に逐次割り当てるオンライン二項分類の変種について考察する。
もし学習者がラベルを1ドル選ぶと、すぐにそのアイテムの本当のラベルを観察する。
学習者は、短期分類精度と長期情報ゲインとのトレードオフに直面している。
論文 参考訳(メタデータ) (2021-09-29T13:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。