論文の概要: Scheduling to Learn In An Unsupervised Online Streaming Model
- arxiv url: http://arxiv.org/abs/2112.01576v1
- Date: Thu, 2 Dec 2021 19:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:47:54.664000
- Title: Scheduling to Learn In An Unsupervised Online Streaming Model
- Title(参考訳): 教師なしオンラインストリーミングモデルで学ぶためのスケジューリング
- Authors: R. Vaze, Santanu Rathod
- Abstract要約: 教師なしのオンラインストリーミングモデルでは、サンプルがT$スロットを越えてオンライン形式で配信される。
すべてのサンプルのユーティリティの総和を最大化する問題は考慮されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An unsupervised online streaming model is considered where samples arrive in
an online fashion over $T$ slots. There are $M$ classifiers, whose confusion
matrices are unknown a priori. In each slot, at most one sample can be labeled
by any classifier. The accuracy of a sample is a function of the set of labels
obtained for it from various classifiers. The utility of a sample is a scalar
multiple of its accuracy minus the response time (difference of the departure
slot and the arrival slot), where the departure slot is also decided by the
algorithm. Since each classifier can label at most one sample per slot, there
is a tradeoff between obtaining a larger set of labels for a particular sample
to improve its accuracy, and its response time. The problem of maximizing the
sum of the utilities of all samples is considered, where learning the confusion
matrices, sample-classifier matching assignment, and sample departure slot
decisions depend on each other. The proposed algorithm first learns the
confusion matrices, and then uses a greedy algorithm for sample-classifier
matching. A sample departs once its incremental utility turns non-positive. We
show that the competitive ratio of the proposed algorithm is
$\frac{1}{2}-{\mathcal O}\left(\frac{\log T}{T}\right)$.
- Abstract(参考訳): 教師なしのオンラインストリーミングモデルでは、サンプルがT$スロットを越えてオンライン形式で配信される。
クラス化器には$m$があり、混乱行列は事前に不明である。
各スロットでは、少なくとも1つのサンプルを任意の分類器でラベル付けすることができる。
サンプルの精度は、様々な分類器から得られたラベルの集合の関数である。
サンプルの有用性は、その精度のスカラー倍で、応答時間(出発スロットと到着スロットの差)を減らし、出発スロットもアルゴリズムによって決定される。
各分類器は、スロット毎に少なくとも1つのサンプルをラベル付けできるため、特定のサンプルに対してより大きなラベルセットを取得することで、その精度と応答時間を改善するというトレードオフがある。
混乱行列の学習, サンプル分類器マッチング代入, サンプル出発スロット決定が互いに依存する場合, サンプルの効用を最大化することの問題点を考察する。
提案アルゴリズムは、まず混乱行列を学習し、その後、サンプル分類器マッチングにグリーディアルゴリズムを用いる。
インクリメンタルユーティリティが非陽性になったら、サンプルは離脱する。
提案アルゴリズムの競合比は$\frac{1}{2}-{\mathcal O}\left(\frac{\log T}{T}\right)$であることを示す。
関連論文リスト
- PAC Learning Linear Thresholds from Label Proportions [13.58949814915442]
ラベルパーセンテージ(LLP)からの学習は教師付き学習の一般化である。
ラベル比のランダムバッグへのアクセスを与えられた場合, LTF を用いて LTF を効率よく学習できることを示す。
学習アルゴリズムの実験的評価と,[Saket'21, Saket'22] とランダム LTF との比較を含む。
論文 参考訳(メタデータ) (2023-10-16T05:59:34Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Selective Sampling for Online Best-arm Identification [19.767267982167578]
潜在的なオプションのセットが与えられた場合、学習者は1-delta$以上の確率で計算することを目指している。
この研究の主な成果は、ラベル付きサンプルと停止時間の間のトレードオフを正確に特徴づけるものである。
我々のフレームワークは、以前の作業で改善されたバイナリ分類をキャプチャするのに十分な一般性を持っている。
論文 参考訳(メタデータ) (2021-10-28T03:02:08Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Binary classification with ambiguous training data [69.50862982117127]
教師付き学習では、ドメインの専門家でさえラベル付けが難しい曖昧な(A)サンプルに直面します。
この問題は、ラベルなしサンプルが必ずしも難しいサンプルではないため、半教師付き学習とは大きく異なる。
論文 参考訳(メタデータ) (2020-11-05T00:53:58Z) - PAL : Pretext-based Active Learning [2.869739951301252]
提案手法は,従来の提案手法よりも,誤ラベルに頑健な深層ニューラルネットワークの能動的学習手法を提案する。
ラベルのないサンプルを選別するために、別ネットワークを使用します。
その結果,ラベルノイズの欠如による競合精度も向上した。
論文 参考訳(メタデータ) (2020-10-29T21:16:37Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Bayesian Semi-supervised Multi-category Classification under Nonparanormality [2.307581190124002]
セミ教師付き学習はラベル付きデータとラベルなしデータの両方を使用するモデルトレーニング手法である。
本稿では,任意のカテゴリ分類問題に適用可能なベイズ半教師付き学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-11T21:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。