論文の概要: GPM: A Generic Probabilistic Model to Recover Annotator's Behavior and
Ground Truth Labeling
- arxiv url: http://arxiv.org/abs/2003.00475v1
- Date: Sun, 1 Mar 2020 12:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:04:39.221598
- Title: GPM: A Generic Probabilistic Model to Recover Annotator's Behavior and
Ground Truth Labeling
- Title(参考訳): GPM:アノテータの振舞いとグラウンド・トゥルース・ラベリングを再現する汎用確率モデル
- Authors: Jing Li, Suiyi Ling, Junle Wang, Zhi Li, Patrick Le Callet
- Abstract要約: 本稿では,基礎となる真実とアノテーションの振舞いを推測する確率論的グラフィカルアノテーションモデルを提案する。
提案モデルでは,アノテータがラベル付け処理中にタスクに対して厳格に動作したかどうかを識別できる。
- 参考スコア(独自算出の注目度): 34.48095564497967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the big data era, data labeling can be obtained through crowdsourcing.
Nevertheless, the obtained labels are generally noisy, unreliable or even
adversarial. In this paper, we propose a probabilistic graphical annotation
model to infer the underlying ground truth and annotator's behavior. To
accommodate both discrete and continuous application scenarios (e.g.,
classifying scenes vs. rating videos on a Likert scale), the underlying ground
truth is considered following a distribution rather than a single value. In
this way, the reliable but potentially divergent opinions from "good"
annotators can be recovered. The proposed model is able to identify whether an
annotator has worked diligently towards the task during the labeling procedure,
which could be used for further selection of qualified annotators. Our model
has been tested on both simulated data and real-world data, where it always
shows superior performance than the other state-of-the-art models in terms of
accuracy and robustness.
- Abstract(参考訳): ビッグデータ時代のデータラベリングはクラウドソーシングによって得ることができる。
それにもかかわらず、得られるラベルは一般に騒がしく、信頼できない、あるいは逆境さえある。
本稿では,基礎となる真実とアノテーションの振舞いを推測する確率論的グラフィカルアノテーションモデルを提案する。
個別のアプリケーションシナリオと連続的なアプリケーションシナリオ(例:Likertスケールでのシーンと評価ビデオの分類)の両方に対応するため、基礎となる真実は単一値ではなく分布に従うと考えられる。
このようにして、「良い」アノテータから信頼できるが潜在的に分岐した意見を取り戻すことができる。
提案モデルでは,アノテータがラベル付け処理中にタスクに対して厳格に動作したかどうかを判断し,アノテータのさらなる選択に使用できる。
我々のモデルはシミュレーションデータと実世界のデータの両方でテストされ、精度とロバスト性の観点から、常に他の最先端モデルよりも優れた性能を示している。
関連論文リスト
- LiveXiv -- A Multi-Modal Live Benchmark Based on Arxiv Papers Content [62.816876067499415]
我々は、科学的ArXiv論文に基づくスケーラブルな進化型ライブベンチマークであるLiveXivを提案する。
LiveXivは、任意のタイムスタンプでドメイン固有の原稿にアクセスし、視覚的な問合せペアを自動的に生成することを提案する。
ベンチマークの最初のバージョンで、複数のオープンでプロプライエタリなLMM(Large Multi-modal Models)をベンチマークし、その挑戦的な性質を示し、モデルの真の能力を明らかにする。
論文 参考訳(メタデータ) (2024-10-14T17:51:23Z) - Capturing Perspectives of Crowdsourced Annotators in Subjective Learning Tasks [9.110872603799839]
監督された分類は、人間によって注釈付けされたデータセットに大きく依存する。
毒性分類などの主観的なタスクでは、これらのアノテーションはラッカー間での合意が低くなることが多い。
本研究では、主観的分類タスクのためのtextbfAnnotator Awares for Texts (AART) を提案する。
論文 参考訳(メタデータ) (2023-11-16T10:18:32Z) - Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - SeedBERT: Recovering Annotator Rating Distributions from an Aggregated
Label [43.23903984174963]
単一ラベルからアノテータ評価分布を復元するSeedBERTを提案する。
人間の評価は,SeedBERTの注意機構がアノテータの不一致の原因と一致していることを示している。
論文 参考訳(メタデータ) (2022-11-23T18:35:15Z) - Going Beyond One-Hot Encoding in Classification: Can Human Uncertainty
Improve Model Performance? [14.610038284393166]
ラベルの不確実性は、分散ラベルを介してトレーニングプロセスに明示的に組み込まれていることを示す。
ラベルの不確実性の取り込みは、モデルが見つからないデータをより一般化し、モデルの性能を向上させるのに役立ちます。
既存のキャリブレーション法と同様に、分布ラベルはより良いキャリブレーションの確率をもたらし、それによってより確実で信頼できる予測が得られる。
論文 参考訳(メタデータ) (2022-05-30T17:19:11Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。