論文の概要: Human-Corrected Labels Learning: Enhancing Labels Quality via Human Correction of VLMs Discrepancies
- arxiv url: http://arxiv.org/abs/2511.09063v1
- Date: Thu, 13 Nov 2025 01:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.390677
- Title: Human-Corrected Labels Learning: Enhancing Labels Quality via Human Correction of VLMs Discrepancies
- Title(参考訳): ヒューマン・コレクテッド・ラベル・ラーニング:VLMの相違によるラベルの品質向上
- Authors: Zhongnian Li, Lan Chen, Yixin Xu, Shi Xu, Xinzheng Xu,
- Abstract要約: 本稿では,VLM生成したノイズラベルを効率よく補正するHCL(Human-Corrected Labels)を提案する。
HCLは、VLMの相違のあるインスタンスに対してのみ人間の修正をデプロイし、高品質なアノテーションと労働コストの削減を実現している。
提案手法は, 分類性能が優れ, 騒音のラベル付けに頑健であり, 現実の弱い監督シナリオにおけるHCLの有効性を検証している。
- 参考スコア(独自算出の注目度): 6.58446551781724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language Models (VLMs), with their powerful content generation capabilities, have been successfully applied to data annotation processes. However, the VLM-generated labels exhibit dual limitations: low quality (i.e., label noise) and absence of error correction mechanisms. To enhance label quality, we propose Human-Corrected Labels (HCLs), a novel setting that efficient human correction for VLM-generated noisy labels. As shown in Figure 1(b), HCL strategically deploys human correction only for instances with VLM discrepancies, achieving both higher-quality annotations and reduced labor costs. Specifically, we theoretically derive a risk-consistent estimator that incorporates both human-corrected labels and VLM predictions to train classifiers. Besides, we further propose a conditional probability method to estimate the label distribution using a combination of VLM outputs and model predictions. Extensive experiments demonstrate that our approach achieves superior classification performance and is robust to label noise, validating the effectiveness of HCL in practical weak supervision scenarios. Code https://github.com/Lilianach24/HCL.git
- Abstract(参考訳): VLM(Vision-Language Models)はその強力なコンテンツ生成機能を持つが、データアノテーションプロセスにうまく適用されている。
しかしながら、VLM生成ラベルには、低品質(ラベルノイズ)と誤り訂正機構の欠如という2つの制限がある。
ラベルの品質を高めるために,VLM生成したノイズラベルに対して,効率の良い人為的補正を行うHCL(Human-Corrected Labels)を提案する。
図1(b)に示すように、HCLはVLMの相違のあるインスタンスに対してのみ人間の修正を戦略的に展開し、高品質なアノテーションと労働コストの削減を実現している。
具体的には、人間の修正ラベルとVLM予測の両方を組み込んだリスク一貫性推定器を理論的に導出し、分類器を訓練する。
さらに,VLM出力とモデル予測の組み合わせを用いてラベル分布を推定する条件付き確率法を提案する。
広汎な実験により,本手法は優れた分類性能を示し,騒音のラベル付けに頑健であり,事実上の弱い監督シナリオにおけるHCLの有効性が検証された。
コード https://github.com/Lilianach24/HCL.git
関連論文リスト
- EVADE: LLM-Based Explanation Generation and Validation for Error Detection in NLI [36.91800117379075]
EVADEは、大規模な言語モデルを使用してエラーを検出するための説明を生成し、検証するためのフレームワークである。
HLVは、複数のラベルが同じインスタンスに対して有効である場合に発生する。
論文 参考訳(メタデータ) (2025-11-12T03:49:05Z) - Handling Imbalanced Pseudolabels for Vision-Language Models with Concept Alignment and Confusion-Aware Calibrated Margin [56.37346003683629]
擬似ラベルを用いた下流タスクへの視覚言語モデル(VLM)の適用が注目されている。
主な障害は、VLMによって生成された擬似ラベルが不均衡になり、性能が低下する傾向があることである。
本稿では,概念アライメントと混乱を考慮したマージン機構を取り入れた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-04T10:24:34Z) - Are LLMs Better than Reported? Detecting Label Errors and Mitigating Their Effect on Model Performance [28.524573212179124]
大きな言語モデル(LLM)は、アノテーションプロセスを強化する新しい機会を提供する。
合意、ラベルの品質、効率の観点から、専門家、クラウドソース、LLMベースのアノテーションを比較します。
以上の結果から,ラベルエラーがかなり多く,修正された場合,報告されたモデル性能が大幅に上向きに変化することが判明した。
論文 参考訳(メタデータ) (2024-10-24T16:27:03Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - VLM-CPL: Consensus Pseudo Labels from Vision-Language Models for Annotation-Free Pathological Image Classification [16.05109192966549]
事前学習型視覚言語モデル(VLM)を利用した新しいヒトアノテーションフリー手法を提案する。
VLM-CPLは、2つのノイズラベルフィルタリング技術と半教師付き学習戦略を含む新しい手法である。
パッチレベルおよびスライドレベル分類のための5つの公開病理画像データセットの実験結果から,本手法はVLMによるゼロショット分類を著しく上回った。
論文 参考訳(メタデータ) (2024-03-23T13:24:30Z) - CSOT: Curriculum and Structure-Aware Optimal Transport for Learning with
Noisy Labels [13.807759089431855]
ノイズラベル(LNL)による学習は、十分に一般化されたモデルのトレーニングにおいて重要な課題となる。
近年の進歩は、クリーンなラベルと、トレーニングのための破損したラベルを識別することで、印象的なパフォーマンスを実現している。
我々は、CSOT(Curriculum and Structure-Aware Optimal Transport)と呼ばれる新しい最適輸送(OT)の定式化を提案する。
論文 参考訳(メタデータ) (2023-12-11T09:12:50Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Improved Adaptive Algorithm for Scalable Active Learning with Weak
Labeler [89.27610526884496]
Weak Labeler Active Cover (WL-AC)は、要求される精度を維持しながら、クエリの複雑さを低減するために、低品質の弱いラベルを堅牢に活用することができる。
受動学習と同一の精度を維持しつつラベル数を著しく削減し, 劣化したMNISTデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2022-11-04T02:52:54Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。