論文の概要: ALBench: A Framework for Evaluating Active Learning in Object Detection
- arxiv url: http://arxiv.org/abs/2207.13339v1
- Date: Wed, 27 Jul 2022 07:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:27:29.159531
- Title: ALBench: A Framework for Evaluating Active Learning in Object Detection
- Title(参考訳): albench: オブジェクト検出におけるアクティブラーニングの評価フレームワーク
- Authors: Zhanpeng Feng, Shiliang Zhang, Rinyoichi Takezoe, Wenze Hu, Manmohan
Chandraker, Li-Jia Li, Vijay K. Narayanan, Xiaoyu Wang
- Abstract要約: 本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
- 参考スコア(独自算出の注目度): 102.81795062493536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning is an important technology for automated machine learning
systems. In contrast to Neural Architecture Search (NAS) which aims at
automating neural network architecture design, active learning aims at
automating training data selection. It is especially critical for training a
long-tailed task, in which positive samples are sparsely distributed. Active
learning alleviates the expensive data annotation issue through incrementally
training models powered with efficient data selection. Instead of annotating
all unlabeled samples, it iteratively selects and annotates the most valuable
samples. Active learning has been popular in image classification, but has not
been fully explored in object detection. Most of current approaches on object
detection are evaluated with different settings, making it difficult to fairly
compare their performance. To facilitate the research in this field, this paper
contributes an active learning benchmark framework named as ALBench for
evaluating active learning in object detection. Developed on an automatic deep
model training system, this ALBench framework is easy-to-use, compatible with
different active learning algorithms, and ensures the same training and testing
protocols. We hope this automated benchmark system help researchers to easily
reproduce literature's performance and have objective comparisons with prior
arts. The code will be release through Github.
- Abstract(参考訳): アクティブラーニングは自動機械学習システムにとって重要な技術である。
ニューラルネットワークアーキテクチャ設計の自動化を目的としたニューラルネットワーク探索(NAS)とは対照的に、アクティブラーニングはトレーニングデータ選択の自動化を目標としている。
長尾のタスクのトレーニングでは特に重要であり、正のサンプルがほとんど分布しない。
アクティブラーニングは、効率的なデータ選択によるインクリメンタルなトレーニングモデルを通じて、高価なデータアノテーションの問題を軽減する。
ラベルのないすべてのサンプルに注釈をつける代わりに、最も価値のあるサンプルを反復的に選択し注釈付けする。
アクティブラーニングは画像分類で人気があるが、オブジェクト検出では十分に研究されていない。
オブジェクト検出に対する現在のアプローチのほとんどは、異なる設定で評価されるため、パフォーマンスを適切に比較することは困難である。
この分野の研究を容易にするために,本稿では,オブジェクト検出におけるアクティブラーニングを評価するために,albenchと呼ばれるアクティブラーニングベンチマークフレームワークを提案する。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
この自動ベンチマークシステムは、研究者が文学のパフォーマンスを容易に再現し、先行技術と客観的に比較できることを願っている。
コードはgithubからリリースされる予定だ。
関連論文リスト
- Efficient Human-in-the-Loop Active Learning: A Novel Framework for Data Labeling in AI Systems [0.6267574471145215]
本稿では,現代のAIシステムに適用可能な,新たなアクティブラーニングフレームワークを提案する。
従来のアクティブな学習手法とは違い、どのデータポイントにラベルを付けるべきかを判断することのみに重点を置いているのに対し、我々のフレームワークは異なるクエリスキームを組み込むという革新的な視点も導入しています。
提案する能動学習フレームワークは,他の手法と比較して精度が高く,損失も少ない。
論文 参考訳(メタデータ) (2024-12-31T05:12:51Z) - Exploring Machine Learning Engineering for Object Detection and Tracking by Unmanned Aerial Vehicle (UAV) [3.600782980481468]
この研究は、自動化の増大に伴う保証手法の導入を強調した機械学習パイプラインの開発に焦点を当てている。
新しいデータセットは、ルンバの掃除機のような移動物体のビデオを収集し、屋内環境の探索・救助(SAR)をエミュレートすることで作成されている。
データセットの改良後、第2のYOLOv4とMask R-CNNモデルでトレーニングされた。
論文 参考訳(メタデータ) (2024-12-19T19:27:31Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Active Code Learning: Benchmarking Sample-Efficient Training of Code
Models [35.54965391159943]
ソフトウェアエンジニアリング(ML4Code)では、人的労力の少ないコードのモデルを効率的にトレーニングすることが、緊急の問題となっている。
アクティブな学習は、開発者が望ましいパフォーマンスでモデルを生成しながら、少ないデータでモデルをトレーニングすることを可能にするようなテクニックです。
本稿は、この重要な問題であるアクティブコード学習を研究するための最初のベンチマークを構築します。
論文 参考訳(メタデータ) (2023-06-02T03:26:11Z) - Evaluating Zero-cost Active Learning for Object Detection [4.106771265655055]
オブジェクト検出には、ロバストなモデルを学習するためにかなりのラベル付け作業が必要である。
アクティブラーニングは、アノテートすべき関連するサンプルをインテリジェントに選択することで、この労力を減らすことができる。
重要成分は, 境界ボックスレベルのスコアだけでなく, ランキング画像のスコアを集約するためのテクニックも示している。
論文 参考訳(メタデータ) (2022-12-08T11:48:39Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z) - A Comprehensive Benchmark Framework for Active Learning Methods in
Entity Matching [17.064993611446898]
本稿では,EMのための統合型アクティブラーニングベンチマークフレームワークを構築する。
このフレームワークの目的は、積極的学習の組み合わせがEMにどのような効果をもたらすかについて、実践者のための具体的なガイドラインを可能にすることである。
また、F1スコアの観点から学習モデルの品質を約9%向上し、モデルの品質に影響を与えることなく、サンプル選択のレイテンシを最大10倍削減する新しい最適化も含んでいる。
論文 参考訳(メタデータ) (2020-03-29T19:08:03Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。