論文の概要: Handling Imbalanced Pseudolabels for Vision-Language Models with Concept Alignment and Confusion-Aware Calibrated Margin
- arxiv url: http://arxiv.org/abs/2505.02056v1
- Date: Sun, 04 May 2025 10:24:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.400609
- Title: Handling Imbalanced Pseudolabels for Vision-Language Models with Concept Alignment and Confusion-Aware Calibrated Margin
- Title(参考訳): 概念アライメントとコンフュージョン・アウェア・キャリブレーションによる視覚言語モデルのための不均衡擬似空間の扱い
- Authors: Yuchen Wang, Xuefeng Bai, Xiucheng Li, Weili Guan, Liqiang Nie, Xinyang Chen,
- Abstract要約: 擬似ラベルを用いた下流タスクへの視覚言語モデル(VLM)の適用が注目されている。
主な障害は、VLMによって生成された擬似ラベルが不均衡になり、性能が低下する傾向があることである。
本稿では,概念アライメントと混乱を考慮したマージン機構を取り入れた新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 56.37346003683629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adapting vision-language models (VLMs) to downstream tasks with pseudolabels has gained increasing attention. A major obstacle is that the pseudolabels generated by VLMs tend to be imbalanced, leading to inferior performance. While existing methods have explored various strategies to address this, the underlying causes of imbalance remain insufficiently investigated. To fill this gap, we delve into imbalanced pseudolabels and identify two primary contributing factors: concept mismatch and concept confusion. To mitigate these two issues, we propose a novel framework incorporating concept alignment and confusion-aware calibrated margin mechanisms. The core of our approach lies in enhancing underperforming classes and promoting balanced predictions across categories, thus mitigating imbalance. Extensive experiments on six benchmark datasets with three learning paradigms demonstrate that the proposed method effectively enhances the accuracy and balance of pseudolabels, achieving a relative improvement of 6.29% over the SoTA method. Our code is avaliable at https://anonymous.4open.science/r/CAP-C642/
- Abstract(参考訳): 擬似ラベルを用いた下流タスクへの視覚言語モデル(VLM)の適用が注目されている。
主な障害は、VLMによって生成された擬似ラベルが不均衡になり、性能が低下する傾向があることである。
既存の手法では様々な対策が検討されているが、根底にある不均衡の原因はいまだに不十分である。
このギャップを埋めるために、不均衡な擬似ラベルを探索し、概念ミスマッチと概念混乱の2つの主要な要因を特定します。
これら2つの問題を緩和するために,概念アライメントと混乱対応マージン機構を取り入れた新しいフレームワークを提案する。
このアプローチの核心は、パフォーマンスの低いクラスを強化し、カテゴリ間でバランスの取れた予測を促進することで、不均衡を緩和することにあります。
3つの学習パラダイムを持つ6つのベンチマークデータセットの大規模な実験により、提案手法は疑似ラベルの精度とバランスを効果的に向上し、SoTA法に対して6.29%の相対的な改善が達成された。
私たちのコードはhttps://anonymous.4open.science/r/CAP-C642/で有効です。
関連論文リスト
- Rebalancing Multi-Label Class-Incremental Learning [17.921329790170265]
ロスレベルとラベルレベル(RebLL)の両方に対するリバランスフレームワークを提案する。
AKDは、分類損失における負ラベル学習を強調することにより、損失レベルでの再均衡を図る。
ORはラベルのリバランスのために設計されており、行方不明のクラスをオンラインに解放することで、元のクラス分布をメモリ内で復元する。
論文 参考訳(メタデータ) (2024-08-22T07:04:22Z) - Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Semi-supervised Concept Bottleneck Models [11.84762087954844]
SSCBM(Seemi-supervised Concept Bottleneck Model)と呼ばれる新しいフレームワークを提案する。
我々のSCBMは、注釈付きデータが不足している現実的な状況に適しています。
ラベル付きデータの10%に過ぎず、4つのデータセットの平均的な概念とタスク精度はそれぞれ2.44%と3.93%以下である。
論文 参考訳(メタデータ) (2024-06-27T08:33:35Z) - DHC: Dual-debiased Heterogeneous Co-training Framework for
Class-imbalanced Semi-supervised Medical Image Segmentation [19.033066343869862]
半教師付き3次元医用画像セグメンテーションのためのDHC(Dual-debiased Heterogeneous Co-training)フレームワークを提案する。
具体的には,DistDW(Dis Distribution-aware Debiased Weighting)とDiffDW(DiffDW)の2つの損失重み付け戦略を提案する。
提案フレームワークは,クラス不均衡問題を緩和するために擬似ラベルを用いることで,大幅な改善を実現する。
論文 参考訳(メタデータ) (2023-07-22T02:16:05Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - PseCo: Pseudo Labeling and Consistency Training for Semi-Supervised
Object Detection [42.75316070378037]
予測誘導ラベル割り当て(PLA)と正の確率整合投票(PCV)を含むNPL(Noisy Pseudo box Learning)を提案する。
ベンチマークでは PSEudo labeling と Consistency training (PseCo) が SOTA (Soft Teacher) の2.0, 1.8, 2.0 を1%, 5%, 10% で上回っている。
論文 参考訳(メタデータ) (2022-03-30T13:59:22Z) - Delving into Probabilistic Uncertainty for Unsupervised Domain Adaptive
Person Re-Identification [54.174146346387204]
ドメイン適応型人物再識別のための確率的不確実性誘導プログレッシブラベル精錬(P$2$LR)という手法を提案する。
擬似ラベルの不確実性を測定し、ネットワークトレーニングを容易にする定量的基準を確立する。
本手法はDuke2Marketタスクではベースラインが6.5%,Market2MSMTタスクでは2.5%,最先端手法では2.5%を上回った。
論文 参考訳(メタデータ) (2021-12-28T07:40:12Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。