論文の概要: Efficient PAC Learning from the Crowd with Pairwise Comparison
- arxiv url: http://arxiv.org/abs/2011.01104v3
- Date: Thu, 20 Jan 2022 04:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:42:28.478495
- Title: Efficient PAC Learning from the Crowd with Pairwise Comparison
- Title(参考訳): 対数比較による群衆からの効率的なpac学習
- Authors: Jie Shen, Shiwei Zeng
- Abstract要約: PAC学習しきい値関数の問題を,アノテータが(騒々しい)ラベルやペア比較タグを付与できる群から検討する。
我々は、学習とアノテーションをインターリーブするラベル効率のアルゴリズムを設計し、アルゴリズムの一定のオーバーヘッドをもたらす。
- 参考スコア(独自算出の注目度): 7.594050968868919
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Efficient PAC learning of threshold functions is arguably one of the most
important problems in machine learning. With the unprecedented growth of
large-scale data sets, it has become ubiquitous to appeal to the crowd wisdom
for data annotation, and the central problem that attracts a surge of recent
interests is how one can learn the underlying hypothesis from the highly noisy
crowd annotation while well-controlling the annotation cost. On the other hand,
a large body of recent works have investigated the problem of learning with not
only labels, but also pairwise comparisons, since in many applications it is
easier to compare than to label. In this paper, we study the problem of PAC
learning threshold functions from the crowd, where the annotators can provide
(noisy) labels or pairwise comparison tags. We design a label-efficient
algorithm that interleaves learning and annotation, which leads to a constant
overhead of our algorithm (a notion that characterizes the query complexity).
In contrast, a natural approach of annotation followed by learning leads to an
overhead growing with the sample size.
- Abstract(参考訳): 閾値関数の効果的なPAC学習は、機械学習における最も重要な問題の1つである。
大規模なデータセットが前例のない成長を遂げたことにより、群衆の知恵にデータアノテーションをアピールするようになり、近年の関心の高まりを招いた中心的な問題は、注釈コストを十分にコントロールしながら、非常に騒々しい群衆のアノテーションから基礎となる仮説を学べることである。
一方,近年の多くの論文では,ラベルよりもラベルの方が比較しやすいため,ラベルだけでなくペアワイズ比較も研究されている。
本稿では,パック学習閾値関数の問題を群衆から検討し,アノテータが(ノイズ)ラベルやペアワイズ比較タグを提示できる問題について検討する。
我々は、学習とアノテーションをインターリーブするラベル効率のアルゴリズムを設計し、アルゴリズムの一定のオーバーヘッド(クエリの複雑さを特徴づける概念)をもたらす。
対照的に、アノテーションの自然なアプローチが学習に続き、サンプルサイズとともにオーバーヘッドが増大する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - DIRECT: Deep Active Learning under Imbalance and Label Noise [15.571923343398657]
我々は,クラス不均衡とラベルノイズの両面において,アクティブラーニングの最初の研究を行う。
本稿では,クラス分離閾値を頑健に同定し,最も不確実な例を注釈する新しいアルゴリズムを提案する。
以上の結果から,DIRECTは最先端のアクティブ学習アルゴリズムと比較して,アノテーション予算の60%以上を節約できることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:18:34Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Improved Robust Algorithms for Learning with Discriminative Feature
Feedback [21.58493386054356]
識別的特徴フィードバック(英: Discriminative Feature Feedback)は、人間の教師によって提供される特徴説明に基づく対話型学習のためのプロトコルである。
我々は、識別的特徴フィードバックモデルのための、新しい堅牢な対話型学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-09-08T12:11:12Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Bounded Memory Active Learning through Enriched Queries [28.116967200489192]
アクティブ・ラーニング(英: Active Learning)とは、データ・ハングリー学習アルゴリズムが高価なラベリングコストを下げるために情報的サンプルを適応的に選択するパラダイムである。
これに対抗するために、近年の一連の研究は、学習者がラベル以外の豊富なクエリを問うことができるモデルとして検討されている。
このようなモデルはラベルのコストを大幅に下げることに成功したが、大量のメモリを必要とする傾向にある。
論文 参考訳(メタデータ) (2021-02-09T19:00:00Z) - Noise-tolerant, Reliable Active Classification with Comparison Queries [25.725730509014355]
本研究では,大規模なデータプールにアクセス可能なアルゴリズムが,どのサンプルにラベルを付けるかを適応的に選択できる,アクティブラーニングのパラダイムについて検討する。
本研究では,有界(マサート)雑音に頑健な非同次線形分離器を学習するためのアルゴリズムを初めて提案する。
論文 参考訳(メタデータ) (2020-01-15T19:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。