論文の概要: On the Ramifications of Human Label Uncertainty
- arxiv url: http://arxiv.org/abs/2211.05871v1
- Date: Thu, 10 Nov 2022 21:05:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:20:22.074898
- Title: On the Ramifications of Human Label Uncertainty
- Title(参考訳): ラベル不確かさの分岐について
- Authors: Chen Zhou, Mohit Prabhushankar, Ghassan AlRegib
- Abstract要約: ヒトラベルの不確実性(HLU)の関連について検討する。
本研究では,人為的なラベルを必要とせず,新たな自然景観統計(NSS)に基づくラベル希釈訓練手法を提案する。
実験と分析により,NSSによるラベル希釈によるトレーニングは,HLUによる不適切な影響を緩和することが示された。
- 参考スコア(独自算出の注目度): 17.906197972126325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans exhibit disagreement during data labeling. We term this disagreement
as human label uncertainty. In this work, we study the ramifications of human
label uncertainty (HLU). Our evaluation of existing uncertainty estimation
algorithms, with the presence of HLU, indicates the limitations of existing
uncertainty metrics and algorithms themselves in response to HLU. Meanwhile, we
observe undue effects in predictive uncertainty and generalizability. To
mitigate the undue effects, we introduce a novel natural scene statistics (NSS)
based label dilution training scheme without requiring massive human labels.
Specifically, we first select a subset of samples with low perceptual quality
ranked by statistical regularities of images. We then assign separate labels to
each sample in this subset to obtain a training set with diluted labels. Our
experiments and analysis demonstrate that training with NSS-based label
dilution alleviates the undue effects caused by HLU.
- Abstract(参考訳): 人間はデータラベリング中に不一致を示します。
この不一致を人間のラベルの不確実性と呼ぶ。
本研究では,ヒトのラベルの不確実性(HLU)について検討する。
既存の不確実性推定アルゴリズムの評価は,HLUの存在下では,既存の不確実性指標やアルゴリズム自体がHLUに対応して制限されていることを示す。
一方,予測的不確実性と一般化可能性に対する不適切な影響を観察する。
そこで本研究では,人為的ラベルを必要とせずに,新たな自然景観統計(NSS)に基づくラベル希釈訓練手法を提案する。
具体的には、まず、画像の統計的正規性によってランク付けされる低知覚品質のサンプルのサブセットを選択する。
次に、このサブセットの各サンプルに別々のラベルを割り当てて、希薄なラベルのトレーニングセットを得る。
実験と分析により,NSSによるラベル希釈によるトレーニングは,HLUによる不適切な影響を緩和することが示された。
関連論文リスト
- From Biased Selective Labels to Pseudo-Labels: An Expectation-Maximization Framework for Learning from Biased Decisions [9.440055827786596]
異種検閲という,臨床に着想を得た選択的ラベル問題について検討した。
Disparate Censorship expectation-Maximization (DCEM)は、このような検閲の存在下で学習するためのアルゴリズムである。
論文 参考訳(メタデータ) (2024-06-27T03:33:38Z) - Do not trust what you trust: Miscalibration in Semi-supervised Learning [21.20806568508201]
最先端の半教師付き学習(SSL)アプローチは、ラベルなしサンプルのトレーニングをガイドする擬似ラベルとして機能するために、信頼性の高い予測に依存している。
擬似ラベルに基づくSSL方式は, かなり誤解されていることを示し, ミンエントロピーの最小化を正式に示す。
我々は単純なペナルティ項を統合し、ラベルのないサンプルの予測のロジットを低く保ち、ネットワーク予測が過信にならないようにする。
論文 参考訳(メタデータ) (2024-03-22T18:43:46Z) - Perceptual Quality-based Model Training under Annotator Label Uncertainty [15.015925663078377]
アノテーションは、アノテータラベルの不確実性と呼ばれるデータラベリング中に不一致を示す。
モデル学習のための複数のラベルを客観的に生成する新しい知覚品質ベースモデルトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-15T10:52:18Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Complementing Semi-Supervised Learning with Uncertainty Quantification [6.612035830987296]
そこで本研究では,アレータ性およびてんかん性不確実性定量化に依存する,教師なし不確実性認識の新たな目的を提案する。
CIFAR-100やMini-ImageNetのような複雑なデータセットでは,結果が最先端の成果よりも優れています。
論文 参考訳(メタデータ) (2022-07-22T00:15:02Z) - Incorporating Label Uncertainty in Understanding Adversarial Robustness [17.65850501514483]
最先端モデルによって誘導される誤差領域は、ランダムに選択されたサブセットよりもラベルの不確実性が高い傾向を示す。
この観測は,ラベルの不確実性を考慮した濃度推定アルゴリズムの適用を動機付けている。
論文 参考訳(メタデータ) (2021-07-07T14:26:57Z) - Sample Selection with Uncertainty of Losses for Learning with Noisy
Labels [145.06552420999986]
ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。
しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失をオンザフライで発生させるため、大容量のデータはおそらく正しくないが、確実に誤りではない。
本稿では,損失点推定の代わりに間隔推定を採用することにより,損失の不確実性を取り入れる。
論文 参考訳(メタデータ) (2021-06-01T12:53:53Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。