論文の概要: Finding High-Value Training Data Subset through Differentiable Convex
Programming
- arxiv url: http://arxiv.org/abs/2104.13794v1
- Date: Wed, 28 Apr 2021 14:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:42:53.971400
- Title: Finding High-Value Training Data Subset through Differentiable Convex
Programming
- Title(参考訳): 微分可能凸プログラミングによる高値トレーニングデータサブセットの探索
- Authors: Soumi Das, Arshdeep Singh, Saptarshi Chatterjee, Suparna Bhattacharya,
Sourangshu Bhattacharya
- Abstract要約: 本稿では,トレーニングデータの高値部分集合を選択する問題について検討する。
重要なアイデアは、オンラインサブセット選択のための学習可能なフレームワークを設計することです。
このフレームワークを用いて,選択モデルとmlモデルのパラメータを共同で学習するオンライン交流最小化アルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 5.5180456567480896
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Finding valuable training data points for deep neural networks has been a
core research challenge with many applications. In recent years, various
techniques for calculating the "value" of individual training datapoints have
been proposed for explaining trained models. However, the value of a training
datapoint also depends on other selected training datapoints - a notion that is
not explicitly captured by existing methods. In this paper, we study the
problem of selecting high-value subsets of training data. The key idea is to
design a learnable framework for online subset selection, which can be learned
using mini-batches of training data, thus making our method scalable. This
results in a parameterized convex subset selection problem that is amenable to
a differentiable convex programming paradigm, thus allowing us to learn the
parameters of the selection model in end-to-end training. Using this framework,
we design an online alternating minimization-based algorithm for jointly
learning the parameters of the selection model and ML model. Extensive
evaluation on a synthetic dataset, and three standard datasets, show that our
algorithm finds consistently higher value subsets of training data, compared to
the recent state-of-the-art methods, sometimes ~20% higher value than existing
methods. The subsets are also useful in finding mislabelled training data. Our
algorithm takes running time comparable to the existing valuation functions.
- Abstract(参考訳): ディープニューラルネットワークのための貴重なトレーニングデータポイントを見つけることは、多くのアプリケーションにとって重要な研究課題である。
近年,個別の訓練データポイントの「値」を計算するための様々な手法が提案されている。
しかし、トレーニングデータポイントの値は、他の選択されたトレーニングデータポイントにも依存します。
本稿では,トレーニングデータの高値部分集合を選択する問題について検討する。
鍵となる考え方は、オンラインサブセット選択のための学習可能なフレームワークを設計することであり、トレーニングデータのミニバッチを使って学習することで、我々のメソッドをスケーラブルにする。
これにより、可微分凸プログラミングパラダイムに適合するパラメータ化された凸部分集合選択問題が発生し、エンドツーエンドのトレーニングで選択モデルのパラメータを学習できる。
このフレームワークを用いて,選択モデルとmlモデルのパラメータを共同で学習するオンライン交流最小化アルゴリズムを設計する。
合成データセットと3つの標準データセットの広範囲な評価により、我々のアルゴリズムは、最近の最先端手法と比較して、トレーニングデータの絶対値サブセットが常に高いことを示し、場合によっては既存の手法よりも20%高い値を示す。
サブセットは、誤ったトレーニングデータを見つけるのにも有用である。
我々のアルゴリズムは、既存の評価関数に匹敵する実行時間を要する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learning the Regularization Strength for Deep Fine-Tuning via a Data-Emphasized Variational Objective [4.453137996095194]
グリッド検索は計算コストが高く、検証セットを彫り出す必要があり、実践者は候補値を指定する必要がある。
提案手法はグリッド探索の3つの欠点をすべて克服する。
いくつかのデータセットにおける画像分類タスクの有効性を実証し,既存の手法に匹敵するホールドアウト精度を得た。
論文 参考訳(メタデータ) (2024-10-25T16:32:11Z) - DsDm: Model-Aware Dataset Selection with Datamodels [81.01744199870043]
標準的なプラクティスは、データ品質という人間の考え方にマッチする例をフィルタリングすることです。
質の高い"データソースとの類似性に応じた選択は、ランダムに選択するデータに比べてパフォーマンスが向上しない(さらに傷つく)可能性がある。
我々のフレームワークは、データ品質に関する手作業による概念を回避し、学習プロセスがターゲットタスクの予測にデータポイントをトレーニングする方法を明確にモデル化する。
論文 参考訳(メタデータ) (2024-01-23T17:22:00Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Mixing Deep Learning and Multiple Criteria Optimization: An Application
to Distributed Learning with Multiple Datasets [0.0]
トレーニングフェーズは、マシンラーニングプロセスにおいて最も重要なステージです。
本研究では,特定の入力とラベルに関連付けられた出力との距離を基準として,複数の基準最適化モデルを構築した。
MNISTデータを用いた数値分類において,このモデルと数値実験を実現するためのスカラー化手法を提案する。
論文 参考訳(メタデータ) (2021-12-02T16:00:44Z) - Training Data Subset Selection for Regression with Controlled
Generalization Error [19.21682938684508]
そこで我々は,データサブセット選択のための効率的な大規模化最小化アルゴリズムを開発した。
SELCONは、現在の最先端技術よりも精度と効率を効果的に交換する。
論文 参考訳(メタデータ) (2021-06-23T16:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。