論文の概要: BaSAL: Size-Balanced Warm Start Active Learning for LiDAR Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2310.08035v2
- Date: Wed, 13 Mar 2024 02:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 18:28:00.724874
- Title: BaSAL: Size-Balanced Warm Start Active Learning for LiDAR Semantic
Segmentation
- Title(参考訳): BaSAL:LiDARセマンティックのためのサイズベースウォームのアクティブラーニングを開始
セグメンテーション
- Authors: Jiarong Wei, Yancong Lin, Holger Caesar
- Abstract要約: 既存のアクティブな学習方法は、LiDARセマンティックセグメンテーションデータセットに固有の深刻なクラス不均衡を見落としている。
本研究では,各オブジェクトクラスが特徴的サイズであることを示す観測結果に基づいて,サイズバランスの取れたウォームスタートアクティブラーニングモデルBaSALを提案する。
その結果,初期モデルの性能を大きなマージンで改善できることが示唆された。
- 参考スコア(独自算出の注目度): 2.9290232815049926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning strives to reduce the need for costly data annotation, by
repeatedly querying an annotator to label the most informative samples from a
pool of unlabeled data, and then training a model from these samples. We
identify two problems with existing active learning methods for LiDAR semantic
segmentation. First, they overlook the severe class imbalance inherent in LiDAR
semantic segmentation datasets. Second, to bootstrap the active learning loop
when there is no labeled data available, they train their initial model from
randomly selected data samples, leading to low performance. This situation is
referred to as the cold start problem. To address these problems we propose
BaSAL, a size-balanced warm start active learning model, based on the
observation that each object class has a characteristic size. By sampling
object clusters according to their size, we can thus create a size-balanced
dataset that is also more class-balanced. Furthermore, in contrast to existing
information measures like entropy or CoreSet, size-based sampling does not
require a pretrained model, thus addressing the cold start problem effectively.
Results show that we are able to improve the performance of the initial model
by a large margin. Combining warm start and size-balanced sampling with
established information measures, our approach achieves comparable performance
to training on the entire SemanticKITTI dataset, despite using only 5% of the
annotations, outperforming existing active learning methods. We also match the
existing state-of-the-art in active learning on nuScenes. Our code is available
at: https://github.com/Tony-WJR/BaSAL.
- Abstract(参考訳): アクティブな学習は、アノテータにラベルのないデータのプールから最も情報に富んだサンプルをラベル付けして、これらのサンプルからモデルをトレーニングすることで、コストのかかるデータアノテーションの必要性を減らそうとする。
既存のLiDARセマンティックセマンティックセグメンテーションのためのアクティブラーニング手法における2つの問題点を同定する。
まず、LiDARセマンティックセグメンテーションデータセットに固有の深刻なクラス不均衡を見落としている。
次に、ラベル付きデータがないときにアクティブな学習ループをブートストラップするために、ランダムに選択されたデータサンプルから初期モデルをトレーニングし、パフォーマンスを低下させる。
この状況をコールドスタート問題と呼ぶ。
これらの問題に対処するために,各オブジェクトクラスが特徴的サイズであることを示す観測に基づいて,サイズバランスのよいウォームスタートアクティブラーニングモデルBaSALを提案する。
サイズに応じてオブジェクトクラスタをサンプリングすることで、サイズバランスのデータセットを作成できます。
さらに、エントロピーやCoreSetのような既存の情報手段とは対照的に、サイズベースのサンプリングは事前訓練されたモデルを必要としないため、コールドスタート問題を効果的に解決する。
その結果,初期モデルの性能を大きなマージンで改善できることが示唆された。
従来のアクティブな学習手法より優れているアノテーションは5%に過ぎなかったが,本手法はセマンティックKITTIデータセット全体のトレーニングに匹敵する性能を達成している。
我々はまた、nuScenesのアクティブラーニングにおける既存の最先端技術に適合する。
私たちのコードは、https://github.com/Tony-WJR/BaSAL.comで利用可能です。
関連論文リスト
- Training on the Benchmark Is Not All You Need [52.01920740114261]
本稿では,複数選択肢の内容に基づいた簡易かつ効果的なデータ漏洩検出手法を提案する。
本手法は,モデルトレーニングデータや重みを使用せずに,ブラックボックス条件下で動作することができる。
我々は,4つのベンチマークデータセットを用いて,31個の主要なオープンソースLCMのデータ漏洩の程度を評価する。
論文 参考訳(メタデータ) (2024-09-03T11:09:44Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - Iterative Loop Learning Combining Self-Training and Active Learning for
Domain Adaptive Semantic Segmentation [1.827510863075184]
この問題を緩和するために、自己学習とアクティブラーニングが提案されている。
本稿では,自己学習とアクティブラーニングを組み合わせた反復ループ学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-31T01:31:43Z) - TAAL: Test-time Augmentation for Active Learning in Medical Image
Segmentation [7.856339385917824]
本稿では,セグメンテーションのための半教師付きアクティブラーニング手法であるTAAL(Test-time Augmentation for Active Learning)を提案する。
以上の結果から,TAALは既存のベースライン法よりも,完全教師付きと半教師付きの両方で優れていることが示された。
論文 参考訳(メタデータ) (2023-01-16T22:19:41Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。