論文の概要: Evaluating the effect of data augmentation and BALD heuristics on
distillation of Semantic-KITTI dataset
- arxiv url: http://arxiv.org/abs/2302.10679v1
- Date: Tue, 21 Feb 2023 13:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:02:58.931481
- Title: Evaluating the effect of data augmentation and BALD heuristics on
distillation of Semantic-KITTI dataset
- Title(参考訳): セマンティック・キッティデータセットの蒸留におけるデータ拡張とBALDヒューリスティックスの影響評価
- Authors: Anh Duong, Alexandre Almin, L\'eo Lemari\'e, B Ravi Kiran
- Abstract要約: Active Learningは、自律運転データセットにおけるLiDAR知覚タスクに対して、比較的未調査のままである。
本研究では,データセット蒸留やコアサブセット選択のタスクに適用したベイズ能動学習手法を評価する。
また,ベイジアンALを用いたデータセット蒸留におけるデータ拡張の適用効果についても検討した。
- 参考スコア(独自算出の注目度): 63.20765930558542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active Learning (AL) has remained relatively unexplored for LiDAR perception
tasks in autonomous driving datasets. In this study we evaluate Bayesian active
learning methods applied to the task of dataset distillation or core subset
selection (subset with near equivalent performance as full dataset). We also
study the effect of application of data augmentation (DA) within Bayesian AL
based dataset distillation. We perform these experiments on the full
Semantic-KITTI dataset. We extend our study over our existing work only on
1/4th of the same dataset. Addition of DA and BALD have a negative impact over
the labeling efficiency and thus the capacity to distill datasets. We
demonstrate key issues in designing a functional AL framework and finally
conclude with a review of challenges in real world active learning.
- Abstract(参考訳): アクティブラーニング(AL)は、自律運転データセットにおけるLiDAR知覚タスクに対して、比較的未調査のままである。
本研究では,データセット蒸留やコア部分集合選択(完全データセットとほぼ同等の性能を持つ部分集合)のタスクに適用するベイズアクティブラーニング手法を評価する。
また,ベイズアルベースのデータセット蒸留におけるデータ拡張(da)の適用効果についても検討した。
これらの実験はSemantic-KITTIの全データセットで実施する。
同じデータセットの1/4にのみ、既存の作業を通じて研究を拡張します。
DAとBALDの添加はラベル付け効率に悪影響を与えるため、データセットを蒸留する能力は低下する。
機能的alフレームワークの設計における重要な課題を実証し,実世界のアクティブラーニングにおける課題をレビューした。
関連論文リスト
- Practical Dataset Distillation Based on Deep Support Vectors [27.16222034423108]
本稿では,データセット全体のごく一部にのみアクセス可能な実運用シナリオにおけるデータセット蒸留に着目した。
本稿では,Deep KKT (DKKT) の損失を付加することにより,一般的なモデル知識を取り入れ,従来のプロセスを強化する新しい蒸留法を提案する。
CIFAR-10データセットのベースライン分布マッチング蒸留法と比較して,本手法では性能が向上した。
論文 参考訳(メタデータ) (2024-05-01T06:41:27Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Distill Gold from Massive Ores: Bi-level Data Pruning towards Efficient Dataset Distillation [96.92250565207017]
本研究では,データセット蒸留作業におけるデータ効率と選択について検討する。
蒸留の力学を再現することにより、実際のデータセットに固有の冗長性についての洞察を提供する。
蒸留における因果関係から最も寄与した試料を見出した。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - A Comprehensive Study on Dataset Distillation: Performance, Privacy,
Robustness and Fairness [8.432686179800543]
我々は,現在最先端のデータセット蒸留法を評価するために,広範囲な実験を行っている。
私たちは、プライバシーリスクがまだ残っていることを示すために、メンバーシップ推論攻撃をうまく利用しています。
この研究は、データセットの蒸留評価のための大規模なベンチマークフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-05T08:19:27Z) - LiDAR dataset distillation within bayesian active learning framework:
Understanding the effect of data augmentation [63.20765930558542]
アクティブラーニング(AL)は、アノテーションコストとデータセットサイズの削減に対処するため、最近再び注目されている。
本稿では,大規模なセマンティックKITTIデータセットの1/4分の1でALベースのデータセット蒸留を原理的に評価する。
我々は、選択したデータセット構成からのサンプルの60%のみを使用して、データ拡張が完全なデータセット精度を達成することを観察した。
論文 参考訳(メタデータ) (2022-02-06T00:04:21Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。