論文の概要: Towards Privacy-Preserving Fine-Grained Visual Classification via Hierarchical Learning from Label Proportions
- arxiv url: http://arxiv.org/abs/2505.23031v1
- Date: Thu, 29 May 2025 03:18:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.644984
- Title: Towards Privacy-Preserving Fine-Grained Visual Classification via Hierarchical Learning from Label Proportions
- Title(参考訳): ラベル情報からの階層的学習によるプライバシー保護型微視的分類を目指して
- Authors: Jinyi Chang, Dongliang Chang, Lei Chen, Bingyao Yu, Zhanyu Ma,
- Abstract要約: 本稿では,インスタンスラベルに直接アクセスすることなく,高精度な粒度認識を実現することを目的とする。
既存のLPPベースの手法とは異なり、我々のフレームワークはきめ細かいデータセットの階層的性質を明示的に活用する。
- 参考スコア(独自算出の注目度): 25.974006393027228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Fine-Grained Visual Classification (FGVC) has achieved impressive recognition accuracy, despite minimal inter-class variations. However, existing methods heavily rely on instance-level labels, making them impractical in privacy-sensitive scenarios such as medical image analysis. This paper aims to enable accurate fine-grained recognition without direct access to instance labels. To achieve this, we leverage the Learning from Label Proportions (LLP) paradigm, which requires only bag-level labels for efficient training. Unlike existing LLP-based methods, our framework explicitly exploits the hierarchical nature of fine-grained datasets, enabling progressive feature granularity refinement and improving classification accuracy. We propose Learning from Hierarchical Fine-Grained Label Proportions (LHFGLP), a framework that incorporates Unrolled Hierarchical Fine-Grained Sparse Dictionary Learning, transforming handcrafted iterative approximation into learnable network optimization. Additionally, our proposed Hierarchical Proportion Loss provides hierarchical supervision, further enhancing classification performance. Experiments on three widely-used fine-grained datasets, structured in a bag-based manner, demonstrate that our framework consistently outperforms existing LLP-based methods. We will release our code and datasets to foster further research in privacy-preserving fine-grained classification.
- Abstract(参考訳): 近年,クラス間変動が最小限であるにもかかわらず,ファイングラインド視覚分類(FGVC)は印象的な認識精度を達成している。
しかし、既存の手法はインスタンスレベルのラベルに大きく依存しており、医療画像分析のようなプライバシーに敏感なシナリオでは実用的ではない。
本稿では,インスタンスラベルに直接アクセスすることなく,高精度な粒度認識を実現することを目的とする。
これを実現するために,バッグレベルのラベルのみを必要とするLLP(Learning from Label Proportions)パラダイムを活用する。
既存のLPP法とは異なり、我々のフレームワークは細粒度データセットの階層的性質を明示的に活用し、プログレッシブな特徴の粒度改善と分類精度の向上を実現している。
本研究では,階層型細粒度スパース辞書学習を組み込んだフレームワークであるLHFGLP(Learning from Hierarchical Fine-Grained Label Proportions)を提案し,手作り反復近似を学習可能なネットワーク最適化に変換する。
さらに,我々の提案する階層的比例損失は階層的監視を提供し,分類性能をさらに向上させる。
バッグベースで構築された広範に使われている3つのきめ細かいデータセットの実験は、我々のフレームワークが既存のLPPベースの手法を一貫して上回っていることを実証している。
プライバシー保護のためのきめ細かい分類のさらなる研究を促進するために、コードとデータセットをリリースします。
関連論文リスト
- PEPL: Precision-Enhanced Pseudo-Labeling for Fine-Grained Image Classification in Semi-Supervised Learning [3.801446153948012]
半教師付き学習フレームワーク内でのきめ細かい画像分類のためのPEPL(Precision-Enhanced Pseudo-Labeling)手法を提案する。
提案手法は,高品質な擬似ラベルを生成することにより,ラベルなしデータの豊富さを活用する。
ベンチマークデータセット上での最先端のパフォーマンスを実現し、既存の半教師付き戦略よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-09-05T02:32:07Z) - TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - ProTeCt: Prompt Tuning for Taxonomic Open Set Classification [59.59442518849203]
分類学的オープンセット(TOS)設定では、ほとんどショット適応法はうまくいきません。
本稿では,モデル予測の階層的一貫性を校正する即時チューニング手法を提案する。
次に,階層整合性のための新しいPrompt Tuning(ProTeCt)手法を提案し,ラベル集合の粒度を分類する。
論文 参考訳(メタデータ) (2023-06-04T02:55:25Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - CHiLS: Zero-Shot Image Classification with Hierarchical Label Sets [24.868024094095983]
オープン語彙モデル(例えばCLIP)はゼロショット分類において強い性能を示している。
暗黙的な意味的階層を持つデータセットに対する階層的ラベルセット(CHiLS)を用いた分類を提案する。
CHiLSは既存のゼロショットパイプラインで簡単に実装でき、追加のトレーニングコストを必要としない。
論文 参考訳(メタデータ) (2023-02-06T03:59:15Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。