論文の概要: Towards General and Efficient Active Learning
- arxiv url: http://arxiv.org/abs/2112.07963v1
- Date: Wed, 15 Dec 2021 08:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:00:00.843961
- Title: Towards General and Efficient Active Learning
- Title(参考訳): 総合的かつ効率的なアクティブラーニングを目指して
- Authors: Yichen Xie, Masayoshi Tomizuka, Wei Zhan
- Abstract要約: アクティブラーニングは、限られたアノテーション予算を利用するために最も有益なサンプルを選択することを目的としている。
本稿では,新しい汎用能動学習法(GEAL)を提案する。
提案手法は,同一モデルの単一パス推定を用いて,異なるデータセット上でデータ選択処理を行うことができる。
- 参考スコア(独自算出の注目度): 20.888364610175987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning aims to select the most informative samples to exploit
limited annotation budgets. Most existing work follows a cumbersome pipeline by
repeating the time-consuming model training and batch data selection multiple
times on each dataset separately. We challenge this status quo by proposing a
novel general and efficient active learning (GEAL) method in this paper.
Utilizing a publicly available model pre-trained on a large dataset, our method
can conduct data selection processes on different datasets with a single-pass
inference of the same model. To capture the subtle local information inside
images, we propose knowledge clusters that are easily extracted from the
intermediate features of the pre-trained network. Instead of the troublesome
batch selection strategy, all data samples are selected in one go by performing
K-Center-Greedy in the fine-grained knowledge cluster level. The entire
procedure only requires single-pass model inference without training or
supervision, making our method notably superior to prior arts in terms of time
complexity by up to hundreds of times. Extensive experiments widely demonstrate
the promising performance of our method on object detection, semantic
segmentation, depth estimation, and image classification.
- Abstract(参考訳): アクティブラーニングは、限られたアノテーション予算を利用するために最も有益なサンプルを選択することを目的としている。
既存の作業のほとんどは、各データセット上で複数の時間を要するモデルトレーニングとバッチデータ選択を別々に繰り返すことで、面倒なパイプラインに従っている。
本稿では,新しい汎用かつ効率的な能動学習法(GEAL)を提案することで,この現状に挑戦する。
大規模データセット上で事前トレーニングされた公開モデルを利用することで,同一モデルの単一パス推論を用いて,異なるデータセット上でデータ選択プロセスを実行できる。
画像内の微妙な局所情報をキャプチャするために,事前学習したネットワークの中間的特徴から容易に抽出できる知識クラスタを提案する。
厄介なバッチ選択戦略の代わりに、すべてのデータサンプルは、きめ細かい知識クラスタレベルでK-Center-Greedyを実行することで、1回に選択される。
手順全体は、トレーニングや監督なしに、シングルパスモデル推論のみが必要であり、我々の手法は、時間複雑性の点で、先行技術よりも数百倍も優れている。
広範な実験により,物体検出,意味セグメンテーション,深さ推定,画像分類において有望な性能を示すことができた。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - AdaSelection: Accelerating Deep Learning Training through Data
Subsampling [27.46630703428186]
適応型サブサンプリング手法であるAdaSelectionを導入し,各ミニバッチ内の最も情報性の高いサブサンプルを同定する。
業界標準のベースラインと比較すると、AdaSelectionは一貫して優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-19T07:01:28Z) - Exploiting Diversity of Unlabeled Data for Label-Efficient
Semi-Supervised Active Learning [57.436224561482966]
アクティブラーニング(英: Active Learning)は、ラベリングのための最も重要なサンプルを選択することで、高価なラベリングの問題に対処する研究分野である。
アクティブな学習環境における初期ラベル付けのための最も情報性の高いサンプル群を選択するために,多様性に基づく新しい初期データセット選択アルゴリズムを提案する。
また、一貫性に基づく埋め込みの多様性に基づくサンプリングを用いた、新しいアクティブな学習クエリ戦略を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:11:55Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Practical Active Learning with Model Selection for Small Data [13.128648437690224]
モデル選択を用いた実践的能動的学習のための簡易かつ高速な手法を開発した。
本手法は,ラジアル基底関数カーネルを用いたサポートベクトル分類を用いて,二元分類のためのプールベースアクティブラーナに基づく。
論文 参考訳(メタデータ) (2021-12-21T23:11:27Z) - Active Learning for Deep Object Detection via Probabilistic Modeling [27.195742892250916]
オブジェクト検出のための新しい深層アクティブラーニング手法を提案する。
提案手法は,各局所化および分類ヘッドの出力に対する確率分布を推定する混合密度ネットワークに依存する。
本手法では,両頭部の2種類の不確実性を集約したスコアリング関数を用いて,各画像のインフォラティブネススコアを求める。
論文 参考訳(メタデータ) (2021-03-30T07:37:11Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。