論文の概要: How to Train an Accurate and Efficient Object Detection Model on Any
Dataset
- arxiv url: http://arxiv.org/abs/2211.17170v1
- Date: Wed, 30 Nov 2022 17:09:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:24:22.473669
- Title: How to Train an Accurate and Efficient Object Detection Model on Any
Dataset
- Title(参考訳): データセット上で正確かつ効率的なオブジェクト検出モデルをトレーニングする方法
- Authors: Galina Zalesskaya, Bogna Bylicka, Eugene Liu
- Abstract要約: オブジェクト検出訓練のためのデータセットに依存しないテンプレートを提案する。
慎重に選択され、事前訓練されたモデルと、さらなるトレーニングのための堅牢なトレーニングパイプラインで構成される。
私たちのソリューションは最初から動作し、幅広いデータセットに対して強力なベースラインを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapidly evolving industry demands high accuracy of the models without the
need for time-consuming and computationally expensive experiments required for
fine-tuning. Moreover, a model and training pipeline, which was once carefully
optimized for a specific dataset, rarely generalizes well to training on a
different dataset. This makes it unrealistic to have carefully fine-tuned
models for each use case. To solve this, we propose an alternative approach
that also forms a backbone of Intel Geti platform: a dataset-agnostic template
for object detection trainings, consisting of carefully chosen and pre-trained
models together with a robust training pipeline for further training. Our
solution works out-of-the-box and provides a strong baseline on a wide range of
datasets. It can be used on its own or as a starting point for further
fine-tuning for specific use cases when needed. We obtained dataset-agnostic
templates by performing parallel training on a corpus of datasets and
optimizing the choice of architectures and training tricks with respect to the
average results on the whole corpora. We examined a number of architectures,
taking into account the performance-accuracy trade-off. Consequently, we
propose 3 finalists, VFNet, ATSS, and SSD, that can be deployed on CPU using
the OpenVINO toolkit. The source code is available as a part of the OpenVINO
Training Extensions (https://github.com/openvinotoolkit/training_extensions}
- Abstract(参考訳): 急速に発展する業界は、微調整に必要な時間と計算コストのかかる実験を必要とせずに、モデルの精度を要求している。
さらに、特定のデータセットに慎重に最適化されたモデルとトレーニングパイプラインは、異なるデータセットでのトレーニングにうまく一般化することは滅多にありません。
これにより、ユースケースごとに慎重に微調整されたモデルを持つことは非現実的になる。
この問題を解決するために、我々はIntel Getiプラットフォームのバックボーンを形成する別のアプローチを提案する。オブジェクト検出トレーニングのためのデータセットに依存しないテンプレートで、慎重に選択され、事前訓練されたモデルと、さらなるトレーニングのための堅牢なトレーニングパイプラインで構成される。
当社のソリューションは最初から動作し、幅広いデータセットに対して強力なベースラインを提供します。
それ自体、あるいは必要に応じて特定のユースケースを微調整するための出発点として使用できる。
データセットのコーパス上で並列トレーニングを行い、コーパス全体の平均結果に対してアーキテクチャの選択とトレーニングトリックを最適化することで、データセットに依存しないテンプレートを得た。
性能と妥当性のトレードオフを考慮して,いくつかのアーキテクチャを調査した。
そこで我々は,openvino toolkitを用いてcpu上にデプロイ可能なvfnet,atss,ssdの3つのファイナリストを提案する。
ソースコードは OpenVINO Training Extensions (https://github.com/openvinotoolkit/training_extensions} の一部として公開されている。
関連論文リスト
- ImageNet-RIB Benchmark: Large Pre-Training Datasets Don't Guarantee Robustness after Fine-Tuning [30.422932548359952]
我々は、新しい堅牢な微調整ベンチマーク ImageNet-RIB (Robustness Inheritance Benchmark) を導入する。
ベンチマークは関連するが、個別の(ダウンストリーム)タスクで構成されている。
連続学習法であるEWCとLwFは微調整後の堅牢性を維持していることがわかった。
論文 参考訳(メタデータ) (2024-10-28T22:33:22Z) - A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - VQA Training Sets are Self-play Environments for Generating Few-shot Pools [2.556825820539693]
本稿では,タスクメトリクスを報酬として計算環境を構築するために,既存のトレーニングセットを直接利用できる手法を提案する。
提案手法は、ゼロショットプロンプトから始まり、トレーニングセット上のタスクメトリックを最大化する少数ショット例を選択することにより、反復的にそれらを洗練する。
我々の実験では、GeminiがScreenAIのようなより小型で特殊なモデルを使って、トレーニングセットのパフォーマンスを反復的に改善する方法を実証している。
論文 参考訳(メタデータ) (2024-05-30T07:38:58Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - Learning to be a Statistician: Learned Estimator for Number of Distinct
Values [54.629042119819744]
列内の異なる値の数(NDV)を推定することは、データベースシステムにおける多くのタスクに有用である。
本研究では、ランダム(オンライン/オフライン)サンプルから正確なNDV推定を導出する方法に焦点を当てる。
教師付き学習フレームワークにおいて,NDV推定タスクを定式化し,モデルを推定対象として学習することを提案する。
論文 参考訳(メタデータ) (2022-02-06T15:42:04Z) - Towards Efficient and Data Agnostic Image Classification Training
Pipeline for Embedded Systems [0.0]
本研究は,画像分類における最新の拡張および正規化手法の見直しに重点を置いている。
各タスクにパラメータを手動で調整することなく、様々なダウンストリーム画像分類タスクにおいて合理的なパフォーマンスを実現することができる。
結果モデルは計算効率が良く、OpenVINOツールキットを使ってCPUにデプロイできる。
論文 参考訳(メタデータ) (2021-08-16T12:38:05Z) - It's the Best Only When It Fits You Most: Finding Related Models for
Serving Based on Dynamic Locality Sensitive Hashing [1.581913948762905]
トレーニングデータの作成は、生産や研究のためにディープラーニングモデルをデプロイするライフサイクルにおいて、しばしばボトルネックとなる。
本稿では,対象のデータセットと利用可能なモデルのトレーニングデータセットの類似性に基づいて,関連するモデルを検索してサービスするエンド・ツー・エンドプロセスを提案する。
論文 参考訳(メタデータ) (2020-10-13T22:52:13Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。