論文の概要: Comprehensive and Efficient Data Labeling via Adaptive Model Scheduling
- arxiv url: http://arxiv.org/abs/2002.05520v1
- Date: Sat, 8 Feb 2020 03:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:39:59.398393
- Title: Comprehensive and Efficient Data Labeling via Adaptive Model Scheduling
- Title(参考訳): 適応モデルスケジューリングによる包括的かつ効率的なデータラベリング
- Authors: Mu Yuan, Lan Zhang, Xiang-Yang Li, Hui Xiong
- Abstract要約: 画像検索プラットフォームやフォトアルバム管理アプリのような特定のアプリケーションでは、十分なラベルを得るためにモデルのコレクションを実行する必要があることが多い。
本研究では,1) モデル間の意味関係をマイニングすることで,非自明なモデルの価値を予測するための強化学習に基づく手法と,2) モデル実行順序を期限付きあるいは期限依存の制約下で適応的にスケジューリングする2つのアルゴリズムからなる適応型モデルスケジューリングフレームワークを提案する。
私たちの設計では、貴重なラベルを失うことなく、約53%の実行時間を節約できます。
- 参考スコア(独自算出の注目度): 25.525371500391568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeling data (e.g., labeling the people, objects, actions and scene in
images) comprehensively and efficiently is a widely needed but challenging
task. Numerous models were proposed to label various data and many approaches
were designed to enhance the ability of deep learning models or accelerate
them. Unfortunately, a single machine-learning model is not powerful enough to
extract various semantic information from data. Given certain applications,
such as image retrieval platforms and photo album management apps, it is often
required to execute a collection of models to obtain sufficient labels. With
limited computing resources and stringent delay, given a data stream and a
collection of applicable resource-hungry deep-learning models, we design a
novel approach to adaptively schedule a subset of these models to execute on
each data item, aiming to maximize the value of the model output (e.g., the
number of high-confidence labels). Achieving this lofty goal is nontrivial
since a model's output on any data item is content-dependent and unknown until
we execute it. To tackle this, we propose an Adaptive Model Scheduling
framework, consisting of 1) a deep reinforcement learning-based approach to
predict the value of unexecuted models by mining semantic relationship among
diverse models, and 2) two heuristic algorithms to adaptively schedule the
model execution order under a deadline or deadline-memory constraints
respectively. The proposed framework doesn't require any prior knowledge of the
data, which works as a powerful complement to existing model optimization
technologies. We conduct extensive evaluations on five diverse image datasets
and 30 popular image labeling models to demonstrate the effectiveness of our
design: our design could save around 53\% execution time without loss of any
valuable labels.
- Abstract(参考訳): データのラベル付け(人、オブジェクト、アクション、シーンなど)を包括的かつ効率的に行うことは、広く必要だが困難な作業である。
様々なデータにラベルを付けるために多くのモデルが提案され、深層学習モデルの能力を高めるために多くのアプローチが考案された。
残念ながら、単一の機械学習モデルは、データからさまざまな意味情報を抽出できるほど強力ではない。
画像検索プラットフォームやフォトアルバム管理アプリのような特定のアプリケーションを考えると、十分なラベルを得るためにモデルの集合を実行する必要がある。
限られた計算資源と厳密な遅延により、データストリームと適用可能なリソースを消費するディープラーニングモデルの集合を考慮し、モデルのサブセットを適応的にスケジュールして各データアイテム上で実行し、モデルの出力値(例えば、高信頼ラベルの数)を最大化する新しいアプローチを設計する。
なぜなら、どんなデータ項目にもモデルの出力はコンテンツに依存し、実行されるまで未知であるからである。
そこで本研究では,適応型モデルスケジューリングフレームワークを提案する。
1)多種多様なモデル間の意味関係のマイニングによる非実行モデルの価値予測のための深層強化学習に基づくアプローチ
2)2つのヒューリスティックアルゴリズムは,それぞれ期限付き又は期限付き制約下でモデル実行順序を適応的にスケジュールする。
提案されたフレームワークはデータの事前知識を必要とせず、既存のモデル最適化技術の強力な補完として機能する。
我々は、5つの多様な画像データセットと30の人気のある画像ラベリングモデルについて広範な評価を行い、設計の有効性を実証した。
関連論文リスト
- Iterative Object Count Optimization for Text-to-image Diffusion Models [59.03672816121209]
画像とテキストのペアから学ぶ現在のモデルは、本質的にカウントに苦慮している。
本稿では,物体のポテンシャルを集計する計数モデルから得られた計数損失に基づいて生成画像の最適化を提案する。
様々なオブジェクトの生成を評価し,精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-08-21T15:51:46Z) - Model Selection with Model Zoo via Graph Learning [45.30615308692713]
本稿では,グラフ学習問題としてモデル選択を再構成する新しいフレームワークであるTransferGraphを紹介する。
我々は,TransferGraphが本質的なモデル-データセット関係を捕捉し,予測性能と実際の微調整結果との相関性を最大32%向上させる効果を,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-04-05T09:50:00Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - Modeling Collaborator: Enabling Subjective Vision Classification With Minimal Human Effort via LLM Tool-Use [14.2527771630478]
本稿では,人間のラベリングを自然言語操作に置き換えることで,手作業の軽減を図る新しいフレームワークを提案する。
当社のフレームワークは,クラウドソースアノテーションの必要性を排除している。
トレーニングされたモデルは、従来のアジャイルモデリングや最先端のゼロショット分類モデルよりも優れています。
論文 参考訳(メタデータ) (2024-03-05T03:34:11Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Revealing the Underlying Patterns: Investigating Dataset Similarity,
Performance, and Generalization [0.0]
教師付きディープラーニングモデルは、特定のタスクで許容可能なパフォーマンスを達成するために、大量のラベル付きデータを必要とする。
モデル動作に関する洞察を得るために、画像イメージ、データセット、画像データセット距離を確立する。
論文 参考訳(メタデータ) (2023-08-07T13:35:53Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。