論文の概要: Class-Specific Channel Attention for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2209.01332v1
- Date: Sat, 3 Sep 2022 05:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:49:37.179026
- Title: Class-Specific Channel Attention for Few-Shot Learning
- Title(参考訳): ファウショット学習のためのクラス特化チャネル注意
- Authors: Ying-Yu Chen, Jun-Wei Hsieh, Ming-Ching Chang
- Abstract要約: Few-Shot Learningは、過剰なデータを必要としないモデルトレーニングの能力のために、コンピュータビジョンにおいて注目を集めている。
大規模ラベル付きトレーニングセットから学習した知識をターゲットテストセットに伝達することを目的とした,従来のトランスファーベースのソリューションは限られている。
そこで我々は,各クラスにCSCA重みベクトルを割り当てることで,各クラスにおける識別チャネルの強調を学習するCSCAモジュールを提案する。
- 参考スコア(独自算出の注目度): 16.019616787091202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Learning (FSL) has attracted growing attention in computer vision
due to its capability in model training without the need for excessive data.
FSL is challenging because the training and testing categories (the base vs.
novel sets) can be largely diversified. Conventional transfer-based solutions
that aim to transfer knowledge learned from large labeled training sets to
target testing sets are limited, as critical adverse impacts of the shift in
task distribution are not adequately addressed. In this paper, we extend the
solution of transfer-based methods by incorporating the concept of
metric-learning and channel attention. To better exploit the feature
representations extracted by the feature backbone, we propose Class-Specific
Channel Attention (CSCA) module, which learns to highlight the discriminative
channels in each class by assigning each class one CSCA weight vector. Unlike
general attention modules designed to learn global-class features, the CSCA
module aims to learn local and class-specific features with very effective
computation. We evaluated the performance of the CSCA module on standard
benchmarks including miniImagenet, Tiered-ImageNet, CIFAR-FS, and CUB-200-2011.
Experiments are performed in inductive and in/cross-domain settings. We achieve
new state-of-the-art results.
- Abstract(参考訳): 過度なデータを必要としないモデルトレーニングの能力のため、コンピュータビジョンでは少数ショット学習(fsl)が注目を集めている。
FSLは、トレーニングとテストのカテゴリ(ベース対新規セット)が大々的に多様化できるため、難しい。
大規模ラベル付きトレーニングセットから目標テストセットに学習知識を伝達することを目的とした従来型の移行ベースソリューションは,タスク分布の変化による重大な影響が適切に対処されていないため,制限されている。
本稿では,メートル法学習とチャネルアテンションの概念を取り入れ,トランスファーベース手法の解法を拡張する。
特徴バックボーンによって抽出された特徴表現をよりうまく活用するために,各クラスにCSCA重みベクトルを割り当てることで,各クラスにおける識別チャネルをハイライトするクラス特化チャネルアテンション(CSCA)モジュールを提案する。
グローバルクラスの特徴を学習するために設計された一般的な注目モジュールとは異なり、CSCAモジュールは局所的およびクラス固有の特徴を非常に効率的な計算で学習することを目的としている。
我々は,miniImagenet, Tiered-ImageNet, CIFAR-FS, CUB-200-2011などの標準ベンチマークにおいて, CSCAモジュールの性能を評価した。
実験はインダクティブおよびイン/クロスドメイン設定で行われる。
我々は新しい最先端の結果を得る。
関連論文リスト
- Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - Memory-guided Network with Uncertainty-based Feature Augmentation for Few-shot Semantic Segmentation [12.653336728447654]
学習可能なメモリベクトルの集合からなるクラス共有メモリ(CSM)モジュールを提案する。
これらのメモリベクトルは、トレーニング中にベースクラスから要素オブジェクトパターンを学習し、トレーニングと推論の両方でクエリ機能を再エンコードする。
我々は、CSMとUFAを代表的FSS作品に統合し、広く使われているPASCAL-5$i$とCOCO-20$i$データセットの実験結果を得た。
論文 参考訳(メタデータ) (2024-06-01T19:53:25Z) - Efficient Prompt Tuning of Large Vision-Language Model for Fine-Grained Ship Classification [59.99976102069976]
リモートセンシング(RS-FGSC)における船のきめ細かい分類は、クラス間の高い類似性とラベル付きデータの限られた可用性のために大きな課題となる。
大規模な訓練済みビジョンランゲージモデル(VLM)の最近の進歩は、少数ショット学習やゼロショット学習において印象的な能力を示している。
本研究は, 船種別分類精度を高めるために, VLMの可能性を生かしたものである。
論文 参考訳(メタデータ) (2024-03-13T05:48:58Z) - SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models [71.78800549517298]
大規模言語モデル(LLM)を動的世界に展開するには,継続的な学習(CL)能力が不可欠である。
既存の方法は、パラメータ効率チューニング(PET)ブロックを用いてタスク固有の知識を取得するための学習モジュールと、テスト入力に対して対応するものを選択するための選択モジュールを考案する。
本稿では,共有注意学習と選択モジュールを通じてPET学習と選択を調整するための新しい共有注意フレームワーク(SAPT)を提案する。
論文 参考訳(メタデータ) (2024-01-16T11:45:03Z) - DiGeo: Discriminative Geometry-Aware Learning for Generalized Few-Shot
Object Detection [39.937724871284665]
汎用的な少ショットオブジェクト検出は、豊富なアノテーションと限られたトレーニングデータを持つ新しいクラスで、両方のベースクラス上で正確な検出を実現することを目的としている。
既存のアプローチは、ベースクラスのパフォーマンスを犠牲にして、数ショットの一般化を促進する。
クラス間分離とクラス内コンパクト性の幾何学的特徴を学習するための新しいトレーニングフレームワークDiGeoを提案する。
論文 参考訳(メタデータ) (2023-03-16T22:37:09Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。