論文の概要: Category-wise Fine-Tuning: Resisting Incorrect Pseudo-Labels in
Multi-Label Image Classification with Partial Labels
- arxiv url: http://arxiv.org/abs/2401.16991v1
- Date: Tue, 30 Jan 2024 13:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:08:12.923576
- Title: Category-wise Fine-Tuning: Resisting Incorrect Pseudo-Labels in
Multi-Label Image Classification with Partial Labels
- Title(参考訳): カテゴリーワイドファインチューニング:部分ラベルを用いた複数ラベル画像分類における不正確な擬似ラベルの残留
- Authors: Chak Fong Chong, Xinyi Fang, Jielong Guo, Yapeng Wang, Wei Ke,
Chan-Tong Lam, Sio-Kei Im
- Abstract要約: Category-wise Fine-Tuning (CFT)は、疑似ラベルのない既知のラベルを使用して、各カテゴリのモデル予測を微調整する。
CFTは、スクラッチからモデルを訓練する既存の方法とは異なり、よく訓練されたモデルに適用される。
3つのベンチマークデータセットで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 3.2867648739492754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale image datasets are often partially labeled, where only a few
categories' labels are known for each image. Assigning pseudo-labels to unknown
labels to gain additional training signals has become prevalent for training
deep classification models. However, some pseudo-labels are inevitably
incorrect, leading to a notable decline in the model classification
performance. In this paper, we propose a novel method called Category-wise
Fine-Tuning (CFT), aiming to reduce model inaccuracies caused by the wrong
pseudo-labels. In particular, CFT employs known labels without pseudo-labels to
fine-tune the logistic regressions of trained models individually to calibrate
each category's model predictions. Genetic Algorithm, seldom used for training
deep models, is also utilized in CFT to maximize the classification performance
directly. CFT is applied to well-trained models, unlike most existing methods
that train models from scratch. Hence, CFT is general and compatible with
models trained with different methods and schemes, as demonstrated through
extensive experiments. CFT requires only a few seconds for each category for
calibration with consumer-grade GPUs. We achieve state-of-the-art results on
three benchmarking datasets, including the CheXpert chest X-ray competition
dataset (ensemble mAUC 93.33%, single model 91.82%), partially labeled MS-COCO
(average mAP 83.69%), and Open Image V3 (mAP 85.31%), outperforming the
previous bests by 0.28%, 2.21%, 2.50%, and 0.91%, respectively. The single
model on CheXpert has been officially evaluated by the competition server,
endorsing the correctness of the result. The outstanding results and
generalizability indicate that CFT could be substantial and prevalent for
classification model development. Code is available at:
https://github.com/maxium0526/category-wise-fine-tuning.
- Abstract(参考訳): 大規模な画像データセットは部分的にラベル付けされることが多く、それぞれの画像についてカテゴリのラベルしか知られていない。
未知ラベルに擬似ラベルを割り当てて追加のトレーニング信号を取得することは、深層分類モデルのトレーニングに広く使われている。
しかし、いくつかの擬似ラベルは必然的に誤りであり、モデルの分類性能が著しく低下する。
本稿では,誤った擬似ラベルによるモデル不正確性を低減することを目的とした,カテゴリワイズ微調整(cft)と呼ばれる新しい手法を提案する。
特に、CFTは擬似ラベルのない既知のラベルを用いて、訓練されたモデルのロジスティック回帰を個別に微調整し、各カテゴリのモデル予測を校正する。
深層モデルのトレーニングにはほとんど使われない遺伝的アルゴリズムは、分類性能を直接最大化するためにCFTでも使用される。
CFTは、スクラッチからモデルを訓練する既存の方法とは異なり、よく訓練されたモデルに適用される。
したがって、CFTは様々な手法やスキームで訓練されたモデルと互換性があり、広範な実験を通じて実証されている。
CFTは、コンシューマグレードのGPUでキャリブレーションを行うために、各カテゴリに数秒しか必要としない。
3つのベンチマークデータセット(chexpert chest x-ray competition dataset (ensemble mauc 93.33%, single model 91.82%), 部分的にラベル付けされたms-coco (平均写像83.69%), open image v3 (マップ85.31%), それぞれ0.28%, 2.21%, 2.50%, 0.91%) を上回った。
CheXpertのシングルモデルは、競合サーバによって公式に評価され、結果の正確性を支持している。
卓越した結果と一般化可能性から, CFT は分類モデル開発に有効であることが示唆された。
コードは以下の通り。 https://github.com/maxium0526/category-wise-fine-tuning。
関連論文リスト
- Few-Shot Anomaly Detection via Category-Agnostic Registration Learning [65.64252994254268]
既存のほとんどの異常検出方法は、各カテゴリに専用のモデルを必要とする。
この記事では、新しい数ショットAD(FSAD)フレームワークを提案する。
これは新しいカテゴリーのモデル微調整を必要としない最初のFSAD法である。
論文 参考訳(メタデータ) (2024-06-13T05:01:13Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Model Calibration in Dense Classification with Adaptive Label
Perturbation [44.62722402349157]
既存の密接な二分分類モデルは、過信される傾向がある。
本稿では,各トレーニング画像に対する独自のラベル摂動レベルを学習する適応ラベル摂動(ASLP)を提案する。
ASLPは、分布内および分布外の両方のデータに基づいて、密度の高い二分分類モデルの校正度を著しく改善することができる。
論文 参考訳(メタデータ) (2023-07-25T14:40:11Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - A two-head loss function for deep Average-K classification [8.189630642296416]
本稿では,従来のソフトマックスに加えて,複数ラベルの分類に基づく新たな損失関数を提案する。
このアプローチによって、モデルがクラス間のあいまいさをよりよく捉え、結果として、より一貫性のあるクラスのセットを返すことができることを示す。
論文 参考訳(メタデータ) (2023-03-31T15:04:53Z) - Semi-Supervised Learning with Pseudo-Negative Labels for Image
Classification [14.100569951592417]
擬陰性ラベルに基づく相互学習フレームワークを提案する。
擬似負ラベルの予測確率を下げることにより、二重モデルは予測能力を向上させることができる。
我々のフレームワークは、いくつかの主要なベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-10T14:15:17Z) - Improving Zero-Shot Models with Label Distribution Priors [33.51714665243138]
本稿では,ゼロショットモデルを適用した新しいアプローチであるCLIPPRを提案する。
UTK年齢回帰作業における平均絶対誤差は平均28%改善した。
また、分類ベンチマークの有望な結果を示し、ラベルを使わずにImageNetデータセットの分類精度を2.83%改善した。
論文 参考訳(メタデータ) (2022-12-01T18:59:03Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Label Confusion Learning to Enhance Text Classification Models [3.0251266104313643]
ラベル混乱モデル(lcm)はラベル間の意味的重複を捉えるためにラベル混乱を学習する。
lcmは、元のホットラベルベクトルを置き換えるより優れたラベル分布を生成することができる。
5つのテキスト分類ベンチマークデータセットの実験により、広く使われているディープラーニング分類モデルに対するLCMの有効性が明らかにされた。
論文 参考訳(メタデータ) (2020-12-09T11:34:35Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。