論文の概要: Revisiting Active Learning under (Human) Label Variation
- arxiv url: http://arxiv.org/abs/2507.02593v1
- Date: Thu, 03 Jul 2025 12:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.286499
- Title: Revisiting Active Learning under (Human) Label Variation
- Title(参考訳): Human (Human) Label 変動下におけるアクティブラーニングの再検討
- Authors: Cornelia Gruber, Helen Alber, Bernd Bischl, Göran Kauermann, Barbara Plank, Matthias Aßenmacher,
- Abstract要約: HLV (Human label variation) は、情報信号としてのアノテーションのもっともらしい差異である。
本稿では,HLVをアクティブな学習ループ全体に組み込むための概念的フレームワークを提案する。
本研究の目的は,実世界のアノテーションの複雑さを反映したHLV対応能動学習の概念的基盤を構築することである。
- 参考スコア(独自算出の注目度): 25.25602927653135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Access to high-quality labeled data remains a limiting factor in applied supervised learning. While label variation (LV), i.e., differing labels for the same instance, is common, especially in natural language processing, annotation frameworks often still rest on the assumption of a single ground truth. This overlooks human label variation (HLV), the occurrence of plausible differences in annotations, as an informative signal. Similarly, active learning (AL), a popular approach to optimizing the use of limited annotation budgets in training ML models, often relies on at least one of several simplifying assumptions, which rarely hold in practice when acknowledging HLV. In this paper, we examine foundational assumptions about truth and label nature, highlighting the need to decompose observed LV into signal (e.g., HLV) and noise (e.g., annotation error). We survey how the AL and (H)LV communities have addressed -- or neglected -- these distinctions and propose a conceptual framework for incorporating HLV throughout the AL loop, including instance selection, annotator choice, and label representation. We further discuss the integration of large language models (LLM) as annotators. Our work aims to lay a conceptual foundation for HLV-aware active learning, better reflecting the complexities of real-world annotation.
- Abstract(参考訳): 高品質なラベル付きデータへのアクセスは、応用教師あり学習における制限要因である。
ラベルのバリエーション(LV)、すなわち同じ例で異なるラベルが一般的であるが、特に自然言語処理では、アノテーションフレームワークは依然として一つの基礎的な真実の仮定に依存していることが多い。
これは、人間のラベルの変動(HLV)、つまりアノテーションのもっともらしい相違の発生を情報信号として見落としている。
同様に、MLモデルのトレーニングにおける限られたアノテーション予算の使用を最適化するための一般的なアプローチであるアクティブラーニング(AL)も、いくつかの単純化された仮定の少なくとも1つに依存している。
本稿では,観測されたLVを信号(eg , HLV)とノイズ(eg , アノテーションエラー)に分解する必要性を明らかにする。
我々は、ALと(H)LVのコミュニティが、これらの区別にどう対処したか、あるいは無視したのかを調査し、ALループ全体を通してHLVを組み込むための概念的枠組みを提案する。
さらに,アノテータとしての大規模言語モデル(LLM)の統合についても論じる。
本研究の目的は,実世界のアノテーションの複雑さを反映したHLV対応能動学習の概念的基盤を構築することである。
関連論文リスト
- Can Large Language Models Capture Human Annotator Disagreements? [84.32752330104775]
大きな言語モデル(LLM)は、人間の労力を減らすために、自動アノテーションにますます使われています。
しかし、これらのモデルが有意な人間のアノテーションの変化も捉えているかどうかはまだ不明である。
我々の研究は、人間のラベルを繰り返すことなく注釈の不一致を予測するLLMの能力を広範囲に評価することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-06-24T09:49:26Z) - Humans Hallucinate Too: Language Models Identify and Correct Subjective Annotation Errors With Label-in-a-Haystack Prompts [26.415262737856967]
大規模言語モデル(LLM)を用いた文脈におけるラベル検証について検討する。
主観的ラベル補正のためのLiaHR(Label-in-a-Haystack Rectification)フレームワークを提案する。
このアプローチは、信号と雑音の比率を高めるために、アノテーションパイプラインに統合することができる。
論文 参考訳(メタデータ) (2025-05-22T18:55:22Z) - Semantic-guided Representation Learning for Multi-Label Recognition [13.046479112800608]
マルチラベル認識(MLR)では、画像内の各データインスタンスに複数のラベルを割り当てる。
近年のビジョンと言語事前学習法は、ゼロショットMLRタスクの処理において大きな進歩を遂げている。
本研究では,セマンティック誘導型表現学習手法(SigRL)を導入し,モデルが効果的な視覚的およびテキスト的表現を学習できるようにする。
論文 参考訳(メタデータ) (2025-04-04T08:15:08Z) - Incremental Label Distribution Learning with Scalable Graph Convolutional Networks [41.02170058889797]
本稿では,ILDL(Incrmental Label Distribution Learning)を導入し,トレーニングサンプルとラベル間関係に関する重要な課題を分析した。
具体的には、新しいラベルの学習を高速化し、ラベル間の関係をグラフとして表現する、新しいラベル対応のグラディエント補償損失を開発する。
論文 参考訳(メタデータ) (2024-11-20T07:49:51Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
本稿では,ラベルスキュード・フェデレーション学習の新しいアプローチであるFedVLSを紹介する。
空のクラス蒸留とロジット抑制を同時に統合する。
FedVLSの有効性を検証する実験は、従来のSOTA(State-of-the-art)法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - A Deep Model for Partial Multi-Label Image Classification with Curriculum Based Disambiguation [42.0958430465578]
部分多重ラベル(PML)画像分類問題について検討する。
既存のPMLメソッドは通常、ノイズの多いラベルをフィルタリングするための曖昧な戦略を設計する。
本稿では,PMLの表現能力と識別能力を高めるための深層モデルを提案する。
論文 参考訳(メタデータ) (2022-07-06T02:49:02Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。