論文の概要: An Adaptive Method for Weak Supervision with Drifting Data
- arxiv url: http://arxiv.org/abs/2306.01658v1
- Date: Fri, 2 Jun 2023 16:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:10:55.515203
- Title: An Adaptive Method for Weak Supervision with Drifting Data
- Title(参考訳): ドリフトデータを用いた弱監視のための適応的手法
- Authors: Alessio Mazzetto, Reza Esfandiarpoor, Eli Upfal, Stephen H. Bach
- Abstract要約: 非定常的な環境では,厳格な品質保証を施した適応手法を導入する。
我々は、弱い監督源の精度が時間とともにドリフトできる非定常的なケースに焦点を当てる。
我々のアルゴリズムはドリフトの大きさに関する仮定を一切必要とせず、入力に基づいて適応する。
- 参考スコア(独自算出の注目度): 11.035811912078216
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce an adaptive method with formal quality guarantees for weak
supervision in a non-stationary setting. Our goal is to infer the unknown
labels of a sequence of data by using weak supervision sources that provide
independent noisy signals of the correct classification for each data point.
This setting includes crowdsourcing and programmatic weak supervision. We focus
on the non-stationary case, where the accuracy of the weak supervision sources
can drift over time, e.g., because of changes in the underlying data
distribution. Due to the drift, older data could provide misleading information
to infer the label of the current data point. Previous work relied on a priori
assumptions on the magnitude of the drift to decide how much data to use from
the past. Comparatively, our algorithm does not require any assumptions on the
drift, and it adapts based on the input. In particular, at each step, our
algorithm guarantees an estimation of the current accuracies of the weak
supervision sources over a window of past observations that minimizes a
trade-off between the error due to the variance of the estimation and the error
due to the drift. Experiments on synthetic and real-world labelers show that
our approach indeed adapts to the drift. Unlike fixed-window-size strategies,
it dynamically chooses a window size that allows it to consistently maintain
good performance.
- Abstract(参考訳): 非定常環境における弱監視のための形式的品質保証による適応手法を提案する。
我々のゴールは、各データポイントの正しい分類の独立したノイズ信号を提供する弱い監督源を用いて、データの列の未知のラベルを推測することである。
この設定にはクラウドソーシングとプログラムによる弱い監督が含まれる。
我々は、弱い監督源の精度が時間とともに変動する、例えば、基盤となるデータ分布の変化によって、非定常の場合に焦点を当てる。
ドリフトのため、古いデータは誤解を招く情報を提供し、現在のデータポイントのラベルを推測することができる。
これまでの作業は、過去のデータ使用量を決定するために、ドリフトの大きさに関する前提に頼っていた。
対照的に、我々のアルゴリズムはドリフトに関する仮定を一切必要とせず、入力に基づいて適応する。
特に,各ステップにおいて,推定値のばらつきによる誤差とドリフトによる誤差とのトレードオフを最小限に抑える,過去の観測窓上での弱監視源の現在の確率の推定を保証する。
人工ラベルと実世界のラベルの実験は、我々のアプローチがドリフトに適応していることを示している。
固定ウィンドウサイズ戦略とは異なり、ウィンドウサイズを動的に選択することで、継続的に優れたパフォーマンスを維持することができる。
関連論文リスト
- Distribution-Free Predictive Inference under Unknown Temporal Drift [1.024113475677323]
本稿では、適応ウィンドウを選択して、そのデータを用いて予測セットを構築する戦略を提案する。
提案手法は時間的ドリフトに対する適応性を示すため,鋭いカバレッジ保証を提供する。
論文 参考訳(メタデータ) (2024-06-10T17:55:43Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Unsupervised Accuracy Estimation of Deep Visual Models using
Domain-Adaptive Adversarial Perturbation without Source Samples [1.1852406625172216]
本研究では,未ラベルのターゲットデータに対して,ソースデータにアクセスせずにモデル精度を推定する新しいフレームワークを提案する。
提案手法は,ソース仮説と対象の擬似ラベル関数との相違率を測定する。
提案するソースフリーフレームワークは,分散シフトの困難なシナリオに効果的に対処し,トレーニングにソースデータやラベルを必要とする既存の手法より優れている。
論文 参考訳(メタデータ) (2023-07-19T15:33:11Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Classification and Uncertainty Quantification of Corrupted Data using
Semi-Supervised Autoencoders [11.300365160909879]
本稿では,強い破損したデータを分類し,不確実性を定量化する確率論的手法を提案する。
破損しないデータに基づいてトレーニングされた半教師付きオートエンコーダが基盤となるアーキテクチャである。
モデルの不確実性は、その分類が正しいか間違っているかに強く依存していることを示す。
論文 参考訳(メタデータ) (2021-05-27T18:47:55Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Unsupervised Domain Adaptation in the Absence of Source Data [0.7366405857677227]
本稿では、ソース領域から自然軸に沿って変化する対象領域にソース分類器を適応させる教師なしの手法を提案する。
分布シフトが明るさ、コントラスト、回転を伴うシナリオにおいて本手法を検証し、ラベル付きデータに制限されたシナリオにおいて微調整ベースラインよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-07-20T16:22:14Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。