論文の概要: Fast and Three-rious: Speeding Up Weak Supervision with Triplet Methods
- arxiv url: http://arxiv.org/abs/2002.11955v2
- Date: Wed, 15 Jul 2020 12:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:39:07.010369
- Title: Fast and Three-rious: Speeding Up Weak Supervision with Triplet Methods
- Title(参考訳): fast and three-rious:tripletメソッドによる弱い監督のスピードアップ
- Authors: Daniel Y. Fu, Mayee F. Chen, Frederic Sala, Sarah M. Hooper, Kayvon
Fatahalian, Christopher R\'e
- Abstract要約: 弱監督は、基底的真理アノテーションに頼ることなく機械学習モデルを構築する一般的な方法である。
既存の手法では、雑音源をモデル化するために潜時変数推定を用いる。
弱監督に高度に適用可能な潜在変数モデルのクラスについて、モデルパラメータに対する閉形式解を見つけることができることを示す。
この洞察を使ってFlyingSquidを構築します。FlyingSquidは、以前の弱い監視アプローチよりも桁違いに高速に実行される弱い監視フレームワークです。
- 参考スコア(独自算出の注目度): 24.190587751595455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weak supervision is a popular method for building machine learning models
without relying on ground truth annotations. Instead, it generates
probabilistic training labels by estimating the accuracies of multiple noisy
labeling sources (e.g., heuristics, crowd workers). Existing approaches use
latent variable estimation to model the noisy sources, but these methods can be
computationally expensive, scaling superlinearly in the data. In this work, we
show that, for a class of latent variable models highly applicable to weak
supervision, we can find a closed-form solution to model parameters, obviating
the need for iterative solutions like stochastic gradient descent (SGD). We use
this insight to build FlyingSquid, a weak supervision framework that runs
orders of magnitude faster than previous weak supervision approaches and
requires fewer assumptions. In particular, we prove bounds on generalization
error without assuming that the latent variable model can exactly parameterize
the underlying data distribution. Empirically, we validate FlyingSquid on
benchmark weak supervision datasets and find that it achieves the same or
higher quality compared to previous approaches without the need to tune an SGD
procedure, recovers model parameters 170 times faster on average, and enables
new video analysis and online learning applications.
- Abstract(参考訳): 弱監督は、基底真理アノテーションに頼ることなく機械学習モデルを構築する一般的な方法である。
代わりに、複数のノイズラベル源(ヒューリスティックス、群衆労働者など)のアキュラシーを推定して確率的トレーニングラベルを生成する。
既存の手法では遅延変数推定を用いてノイズ源をモデル化するが、これらの手法は計算コストが高く、データ内で超直線的にスケーリングすることができる。
本研究では,弱監督に高度に適用可能な潜在変数モデルのクラスについて,確率勾配降下 (SGD) のような反復解の必要性を回避し,モデルパラメータに対する閉形式解を求めることができることを示す。
この洞察を使ってflyingsquidを構築しました。これは、以前の弱い監督アプローチよりも桁違いに高速に動作し、仮定を少なくする、弱い監督フレームワークです。
特に、潜在変数モデルが基礎となるデータ分布を正確にパラメータ化できると仮定することなく、一般化誤差の境界を証明できる。
実証的に,ベンチマークの弱い監督データセット上でflyingsquidを検証することで,sgd手順をチューニングすることなく,従来のアプローチと同等かそれ以上の品質を達成し,平均で170倍の速度でモデルパラメータを復元し,新たなビデオ解析やオンライン学習アプリケーションを可能にする。
関連論文リスト
- SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - End-to-End Weak Supervision [15.125993628007972]
下流モデルを直接学習するためのエンドツーエンドアプローチを提案する。
下流テストセットにおけるエンドモデル性能の観点から,先行作業よりも性能が向上したことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:10:11Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。