論文の概要: A Simple Baseline for Low-Budget Active Learning
- arxiv url: http://arxiv.org/abs/2110.12033v1
- Date: Fri, 22 Oct 2021 19:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 02:44:44.595451
- Title: A Simple Baseline for Low-Budget Active Learning
- Title(参考訳): 低予算アクティブラーニングのための簡易ベースライン
- Authors: Kossar Pourahmadi, Parsa Nooralinejad, Hamed Pirsiavash
- Abstract要約: 簡単なk平均クラスタリングアルゴリズムは、低予算で最先端のアクティブな学習方法より優れていることを示す。
この方法は,画像分類に基づく低予算能動学習のための単純なベースラインとして利用することができる。
- 参考スコア(独自算出の注目度): 15.54250249254414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning focuses on choosing a subset of unlabeled data to be labeled.
However, most such methods assume that a large subset of the data can be
annotated. We are interested in low-budget active learning where only a small
subset (e.g., 0.2% of ImageNet) can be annotated. Instead of proposing a new
query strategy to iteratively sample batches of unlabeled data given an initial
pool, we learn rich features by an off-the-shelf self-supervised learning
method only once and then study the effectiveness of different sampling
strategies given a low budget on a variety of datasets as well as ImageNet
dataset. We show that although the state-of-the-art active learning methods
work well given a large budget of data labeling, a simple k-means clustering
algorithm can outperform them on low budgets. We believe this method can be
used as a simple baseline for low-budget active learning on image
classification. Code is available at:
https://github.com/UCDvision/low-budget-al
- Abstract(参考訳): アクティブラーニングはラベルのないデータのサブセットを選択することに焦点を当てている。
しかし、そのような手法の多くは、データの大きなサブセットを注釈を付けることができると仮定している。
私たちは、小さなサブセット(例えば、ImageNetの0.2%)にアノテートできるような、低予算のアクティブラーニングに興味を持っています。
初期プールに与えられたラベルなしデータのバッチを反復的にサンプリングする新しいクエリ戦略を提案する代わりに、既製の自己教師付き学習手法でリッチな特徴を学習し、さまざまなデータセットとImageNetデータセットに低予算で与えられた異なるサンプリング戦略の有効性について検討する。
データラベリングの膨大な予算を考えると、最先端のアクティブラーニング手法はうまく機能するが、単純なk平均クラスタリングアルゴリズムはそれらを低予算で上回ることができる。
本手法は,画像分類における低予算能動学習のための単純なベースラインとして利用できると考えている。
コードは、https://github.com/UCDvision/low-budget-alで入手できる。
関連論文リスト
- Zero-shot Active Learning Using Self Supervised Learning [11.28415437676582]
我々は,反復的なプロセスを必要としないモデル非依存の新たなアクティブラーニング手法を提案する。
アクティブラーニングの課題に自己指導型学習機能を活用することを目的としている。
論文 参考訳(メタデータ) (2024-01-03T11:49:07Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Exploiting Diversity of Unlabeled Data for Label-Efficient
Semi-Supervised Active Learning [57.436224561482966]
アクティブラーニング(英: Active Learning)は、ラベリングのための最も重要なサンプルを選択することで、高価なラベリングの問題に対処する研究分野である。
アクティブな学習環境における初期ラベル付けのための最も情報性の高いサンプル群を選択するために,多様性に基づく新しい初期データセット選択アルゴリズムを提案する。
また、一貫性に基づく埋め込みの多様性に基づくサンプリングを用いた、新しいアクティブな学習クエリ戦略を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:11:55Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z) - Low Budget Active Learning via Wasserstein Distance: An Integer
Programming Approach [81.19737119343438]
アクティブラーニング(Active Learning)とは、ラベル付きデータプールのコアサブセットをラベルに選択することで、ラベル付きデータでモデルをトレーニングするプロセスである。
本稿では,未ラベルプールからワッサーシュタイン距離を最小化するコアセットを選択するための新しい整数最適化問題を提案する。
我々の戦略は、ラベルのないプールで教師なし学習によって得られる高品質な潜伏的特徴を必要とする。
論文 参考訳(メタデータ) (2021-06-05T21:25:03Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - Learning to Rank for Active Learning: A Listwise Approach [36.72443179449176]
アクティブラーニングは、大量のデータを空腹のアプリケーションにラベル付けする作業を緩和する代替手段として登場した。
本研究では,単純なリストワイズ手法を用いて,損失予測モジュールの構造を再考する。
4つのデータセットに対する実験結果から,本手法は画像分類と回帰処理の両方において,最近の最先端の能動的学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-31T21:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。