論文の概要: Revisiting Pose-Normalization for Fine-Grained Few-Shot Recognition
- arxiv url: http://arxiv.org/abs/2004.00705v1
- Date: Wed, 1 Apr 2020 21:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:13:46.824730
- Title: Revisiting Pose-Normalization for Fine-Grained Few-Shot Recognition
- Title(参考訳): ファイングルーフショット認識のための再検討
- Authors: Luming Tang, Davis Wertheimer, Bharath Hariharan
- Abstract要約: わずかながらきめ細かな分類は、異なるクラス間の微妙できめ細かな区別を学習するモデルを必要とする。
解決策は、ポーズ正規化表現を使用することである。
本研究は,数発のきめ細粒度分類において極めて有効であることを示す。
- 参考スコア(独自算出の注目度): 46.15360203412185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot, fine-grained classification requires a model to learn subtle,
fine-grained distinctions between different classes (e.g., birds) based on a
few images alone. This requires a remarkable degree of invariance to pose,
articulation and background. A solution is to use pose-normalized
representations: first localize semantic parts in each image, and then describe
images by characterizing the appearance of each part. While such
representations are out of favor for fully supervised classification, we show
that they are extremely effective for few-shot fine-grained classification.
With a minimal increase in model capacity, pose normalization improves accuracy
between 10 and 20 percentage points for shallow and deep architectures,
generalizes better to new domains, and is effective for multiple few-shot
algorithms and network backbones. Code is available at
https://github.com/Tsingularity/PoseNorm_Fewshot
- Abstract(参考訳): わずかながらきめ細かな分類は、いくつかの画像だけで異なるクラス(例えば鳥)の微妙できめ細かな区別を学習するモデルを必要とする。
これは、ポーズ、調音、背景に顕著な不変性を必要とする。
解決策は、ポーズ正規化表現を使用することで、まず各画像のセマンティックな部分をローカライズし、次に各部分の外観を特徴付けて画像を記述する。
このような表現は完全な教師付き分類には好ましくないが、数発のきめ細かい分類には極めて有効であることを示す。
モデルキャパシティの最小化により、ポーズ正規化は浅層および深層アーキテクチャの精度を10から20ポイント改善し、新しいドメインを一般化し、複数の数ショットアルゴリズムとネットワークバックボーンに有効である。
コードはhttps://github.com/Tsingularity/PoseNorm_Fewshotで入手できる。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - What does a platypus look like? Generating customized prompts for
zero-shot image classification [52.92839995002636]
この研究は、タスクドメインの明示的な知識に頼ることなく、より高精度なプロンプトを生成するシンプルな方法を導入する。
我々は,大言語モデル(LLM)に含まれる知識を活用し,画像カテゴリの重要な識別特性を含む多くの記述文を生成する。
このアプローチは、ImageNetの1パーセント以上のポイントゲインを含む、ゼロショット画像分類ベンチマークの精度を改善する。
論文 参考訳(メタデータ) (2022-09-07T17:27:08Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - Continual Local Replacement for Few-shot Learning [13.956960291580938]
少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
論文 参考訳(メタデータ) (2020-01-23T04:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。