論文の概要: BaSAL: Size Balanced Warm Start Active Learning for LiDAR Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2310.08035v1
- Date: Thu, 12 Oct 2023 05:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 13:05:32.083028
- Title: BaSAL: Size Balanced Warm Start Active Learning for LiDAR Semantic
Segmentation
- Title(参考訳): basal:lidarセマンティクスセグメンテーションのためのサイズバランスのよいウォームスタートアクティブラーニング
- Authors: Jiarong Wei, Yancong Lin, Holger Caesar
- Abstract要約: 既存のアクティブラーニング手法は、LiDARセマンティックセグメンテーションに固有の重大クラス不均衡を無視している。
本研究では,各オブジェクトクラスが特徴的サイズであることを示す観測結果に基づいて,サイズバランスの取れたウォームスタートアクティブラーニングモデルBaSALを提案する。
その結果,初期モデルの性能を大きなマージンで改善できることが示唆された。
- 参考スコア(独自算出の注目度): 2.9290232815049926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning strives to reduce the need for costly data annotation, by
repeatedly querying an annotator to label the most informative samples from a
pool of unlabeled data and retraining a model from these samples. We identify
two problems with existing active learning methods for LiDAR semantic
segmentation. First, they ignore the severe class imbalance inherent in LiDAR
semantic segmentation datasets. Second, to bootstrap the active learning loop,
they train their initial model from randomly selected data samples, which leads
to low performance and is referred to as the cold start problem. To address
these problems we propose BaSAL, a size-balanced warm start active learning
model, based on the observation that each object class has a characteristic
size. By sampling object clusters according to their size, we can thus create a
size-balanced dataset that is also more class-balanced. Furthermore, in
contrast to existing information measures like entropy or CoreSet, size-based
sampling does not require an already trained model and thus can be used to
address the cold start problem. Results show that we are able to improve the
performance of the initial model by a large margin. Combining size-balanced
sampling and warm start with established information measures, our approach
achieves a comparable performance to training on the entire SemanticKITTI
dataset, despite using only 5% of the annotations, which outperforms existing
active learning methods. We also match the existing state-of-the-art in active
learning on nuScenes. Our code will be made available upon paper acceptance.
- Abstract(参考訳): アクティブな学習は、アノテータにラベルのないデータのプールから最も情報に富んだサンプルをラベル付けし、これらのサンプルからモデルを再トレーニングすることで、コストのかかるデータアノテーションの必要性を減らそうとしている。
既存のLiDARセマンティックセグメンテーションのためのアクティブラーニング手法における2つの問題を特定する。
まず、LiDARセマンティックセグメンテーションデータセットに固有の深刻なクラス不均衡を無視する。
次に、アクティブな学習ループをブートストラップするために、ランダムに選択されたデータサンプルから初期モデルをトレーニングする。
これらの問題に対処するために,各オブジェクトクラスが特徴的サイズであることを示す観測に基づいて,サイズバランスのよいウォームスタートアクティブラーニングモデルBaSALを提案する。
オブジェクトクラスタをサイズに応じてサンプリングすることで、よりクラスバランスのよいサイズバランスのデータセットを作成することができる。
さらに、エントロピーやcoresetのような既存の情報尺度とは対照的に、サイズベースのサンプリングは、既に訓練されたモデルを必要としないため、コールドスタート問題に対処するために使用できる。
その結果,初期モデルの性能を大きなマージンで向上させることができることがわかった。
サイズバランスの取れたサンプリングと,確立した情報測定によるウォームスタートを組み合わせることで,既存のアクティブラーニング手法より優れているアノテーションは5%に過ぎず,SemanticKITTIデータセット全体のトレーニングに匹敵するパフォーマンスを実現する。
我々はまた、nuScenesのアクティブラーニングにおける既存の最先端技術と一致する。
私たちのコードは受理後利用可能になります。
関連論文リスト
- S$^2$R: Teaching LLMs to Self-verify and Self-correct via Reinforcement Learning [51.84977135926156]
S$2$Rはモデルに推論時の自己検証と自己正当性を教えることによってLLM推論を強化する効率的なフレームワークである。
以上の結果から,Qwen2.5-math-7Bの精度は51.0%から81.6%に向上した。
論文 参考訳(メタデータ) (2025-02-18T13:40:22Z) - Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Training on the Benchmark Is Not All You Need [52.01920740114261]
本稿では,複数選択肢の内容に基づいた簡易かつ効果的なデータ漏洩検出手法を提案する。
本手法は,モデルトレーニングデータや重みを使用せずに,ブラックボックス条件下で動作することができる。
我々は,4つのベンチマークデータセットを用いて,31個の主要なオープンソースLCMのデータ漏洩の程度を評価する。
論文 参考訳(メタデータ) (2024-09-03T11:09:44Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Iterative Loop Learning Combining Self-Training and Active Learning for
Domain Adaptive Semantic Segmentation [1.827510863075184]
この問題を緩和するために、自己学習とアクティブラーニングが提案されている。
本稿では,自己学習とアクティブラーニングを組み合わせた反復ループ学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-31T01:31:43Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。