論文の概要: Channel Importance Matters in Few-Shot Image Classification
- arxiv url: http://arxiv.org/abs/2206.08126v1
- Date: Thu, 16 Jun 2022 12:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 15:58:30.624002
- Title: Channel Importance Matters in Few-Shot Image Classification
- Title(参考訳): マイトショット画像分類におけるチャンネルの重要性
- Authors: Xu Luo, Jing Xu, Zenglin Xu
- Abstract要約: Few-Shot Learningは、新しい分類タスクに素早く適応するために視覚モデルを必要とする。
単純なチャネル単位の機能変換が、チャネルの観点からこのシークレットを解き放つ鍵であることを示している。
- 参考スコア(独自算出の注目度): 17.56623996947258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Learning (FSL) requires vision models to quickly adapt to brand-new
classification tasks with a shift in task distribution. Understanding the
difficulties posed by this task distribution shift is central to FSL. In this
paper, we show that a simple channel-wise feature transformation may be the key
to unraveling this secret from a channel perspective. When facing novel
few-shot tasks in the test-time datasets, this transformation can greatly
improve the generalization ability of learned image representations, while
being agnostic to the choice of training algorithms and datasets. Through an
in-depth analysis of this transformation, we find that the difficulty of
representation transfer in FSL stems from the severe channel bias problem of
image representations: channels may have different importance in different
tasks, while convolutional neural networks are likely to be insensitive, or
respond incorrectly to such a shift. This points out a core problem of the
generalization ability of modern vision systems and needs further attention in
the future.
- Abstract(参考訳): FSL(Few-Shot Learning)は、タスク分布の変化を伴う新しい分類タスクに素早く適応するために視覚モデルを必要とする。
このタスク分散シフトによって引き起こされる困難を理解することは、FSLの中心である。
本稿では,この秘密をチャネルの観点から解き明かす鍵として,単純なチャネルワイドな特徴変換が重要であることを示す。
この変換は、テスト時データセットの新たな少数タスクに直面すると、トレーニングアルゴリズムやデータセットの選択によらず、学習された画像表現の一般化能力を大幅に向上させることができる。
この変換の詳細な分析により、FSLにおける表現伝達の難しさは、画像表現の重大チャネルバイアス問題に起因することが判明した。
これは、現代のビジョンシステムの一般化能力の核となる問題を示しており、将来はさらに注意が必要である。
関連論文リスト
- PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Semantic Cross Attention for Few-shot Learning [9.529264466445236]
本稿では,ラベルテキストのセマンティックな特徴を補助的タスクとして見るためのマルチタスク学習手法を提案する。
提案モデルでは,単語埋め込み表現をセマンティックな特徴として用いて,埋め込みネットワークとセマンティックなクロスアテンションモジュールをトレーニングし,セマンティックな特徴を一般的な視覚的モーダルにブリッジする。
論文 参考訳(メタデータ) (2022-10-12T15:24:59Z) - Random Weight Factorization Improves the Training of Continuous Neural
Representations [1.911678487931003]
連続神経表現は、信号の古典的な離散化表現に代わる強力で柔軟な代替物として登場した。
従来の線形層をパラメータ化・初期化するための単純なドロップイン置換法としてランダムウェイト係数化を提案する。
ネットワーク内の各ニューロンが、自身の自己適応学習率を用いて学習できるように、この因子化が基盤となる損失状況をどのように変化させるかを示す。
論文 参考訳(メタデータ) (2022-10-03T23:48:48Z) - Data augmentation with mixtures of max-entropy transformations for
filling-level classification [88.14088768857242]
本稿では,コンテンツレベルの分類作業のための基本データ拡張スキームを用いて,テスト時間データにおける分散シフトの問題に対処する。
このような原理的な拡張スキームは,伝達学習を利用した現在のアプローチを置き換えたり,伝達学習と組み合わせて性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-08T11:41:38Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Learning Dynamic Alignment via Meta-filter for Few-shot Learning [94.41887992982986]
少ないショット学習は、学習知識を極めて限定的な(サポート)例で適応させることで、新しいクラスを認識することを目的としている。
異なるローカルサポート情報に従って、クエリ領域とチャネルの両方を効果的に強調表示できる動的アライメントを学びます。
結果として得られたフレームワークは、主要な数発の視覚認識ベンチマークに最新技術を確立します。
論文 参考訳(メタデータ) (2021-03-25T03:29:33Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。