論文の概要: Logits DeConfusion with CLIP for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2504.12104v1
- Date: Wed, 16 Apr 2025 14:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-24 17:23:07.865446
- Title: Logits DeConfusion with CLIP for Few-Shot Learning
- Title(参考訳): Few-Shot LearningのためのCLIPによるログのデコンフュージョン
- Authors: Shuo Li, Fang Liu, Zehua Hao, Xinyi Wang, Lingling Li, Xu Liu, Puhua Chen, Wenping Ma,
- Abstract要約: 本稿では,ロジットのクラス間混乱を効果的に学習し,解消するLogits DeConfusionという新しい手法を提案する。
本手法は分類性能を大幅に向上させ,クラス間混同問題を緩和する。
- 参考スコア(独自算出の注目度): 36.642422657831425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With its powerful visual-language alignment capability, CLIP performs well in zero-shot and few-shot learning tasks. However, we found in experiments that CLIP's logits suffer from serious inter-class confusion problems in downstream tasks, and the ambiguity between categories seriously affects the accuracy. To address this challenge, we propose a novel method called Logits DeConfusion, which effectively learns and eliminates inter-class confusion in logits by combining our Multi-level Adapter Fusion (MAF) module with our Inter-Class Deconfusion (ICD) module. Our MAF extracts features from different levels and fuses them uniformly to enhance feature representation. Our ICD learnably eliminates inter-class confusion in logits with a residual structure. Experimental results show that our method can significantly improve the classification performance and alleviate the inter-class confusion problem. The code is available at https://github.com/LiShuo1001/LDC.
- Abstract(参考訳): 強力なビジュアル言語アライメント機能により、CLIPはゼロショットおよび少数ショットの学習タスクでうまく機能する。
しかし,CLIPのロジットが下流タスクにおけるクラス間の深刻な混乱問題に悩まされ,カテゴリ間のあいまいさが精度に深刻な影響を及ぼすことが明らかとなった。
この課題に対処するために,マルチレベル・アダプタ・フュージョン (MAF) モジュールとクラス間デコンフュージョン (ICD) モジュールを組み合わせることで,ロジットのクラス間混乱を効果的に学習し解消するLogits Deconfusion という手法を提案する。
我々のMAFは、異なるレベルから特徴を抽出し、特徴表現を強化するためにそれらを均一に融合する。
我々のICDは、残差構造を持つロジットのクラス間混在を学習的に排除する。
実験結果から,本手法は分類性能を著しく向上し,クラス間混同問題を緩和できることが示された。
コードはhttps://github.com/LiShuo1001/LDCで公開されている。
関連論文リスト
- CoMBO: Conflict Mitigation via Branched Optimization for Class Incremental Segmentation [75.35841972192684]
効果的なクラスインクリメンタル(CIS)は、破滅的な忘れを同時に緩和し、新しいクラスを統合するのに十分な可塑性を確保する必要がある。
分岐最適化(CoMBO)による競合緩和という新しいアプローチを導入する。
このアプローチでは、新しいクラスに対するクエリを明示的に洗練するために設計されたQuery Conflict Reductionモジュールを提示する。
論文 参考訳(メタデータ) (2025-04-05T12:34:51Z) - Reducing Class-wise Confusion for Incremental Learning with Disentangled Manifolds [27.39149861687709]
クラスインクリメンタルラーニング(CIL)は、モデルが古いクラスを忘れずに、新しいクラスを継続的に学習できるようにすることを目的としている。
本研究では,CIL 用 Confusion-Reduced AuTo-Encoder 分類器 (CREATE) を開発した。
提案手法は軽量なオートエンコーダモジュールを用いて,潜在部分空間の各クラスに対してコンパクトな多様体を学習する。
論文 参考訳(メタデータ) (2025-03-22T07:07:15Z) - Class-Independent Increment: An Efficient Approach for Multi-label Class-Incremental Learning [49.65841002338575]
本稿では,MLCIL(Multi-label class-incremental Learning)問題に焦点をあてる。
マルチラベルサンプルに対して複数のクラスレベルの埋め込みを抽出する新しいクラス独立インクリメンタルネットワーク(CINet)を提案する。
クラス固有のトークンを構築することで、異なるクラスの知識を学び、保存する。
論文 参考訳(メタデータ) (2025-03-01T14:40:52Z) - Disentangling CLIP Features for Enhanced Localized Understanding [58.73850193789384]
提案するUnmix-CLIPは,相互特徴情報(MFI)の低減と特徴の絡み合いの改善を目的とした新しいフレームワークである。
COCO-14データセットでは、Unmix-CLIPは機能の類似性を24.9%削減している。
論文 参考訳(メタデータ) (2025-02-05T08:20:31Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy [57.68486382473194]
我々は,教師付き学習とメタ学習の両方において,MCFS(Multi-class few-shot)問題について検討した。
本稿では,クラス階層を事前知識として活用し,粗大な分類器を訓練する。
モデル「メモリ拡張階層分類ネットワーク(MahiNet)」は、各粗いクラスが複数の細かなクラスをカバーできる粗い粒度分類を行う。
論文 参考訳(メタデータ) (2020-06-28T01:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。