論文の概要: Compositional Few-Shot Recognition with Primitive Discovery and
Enhancing
- arxiv url: http://arxiv.org/abs/2005.06047v3
- Date: Tue, 22 Sep 2020 00:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:45:45.902141
- Title: Compositional Few-Shot Recognition with Primitive Discovery and
Enhancing
- Title(参考訳): プリミティブ発見とエンハンシングによる構成的部分ショット認識
- Authors: Yixiong Zou, Shanghang Zhang, Ke Chen, Yonghong Tian, Yaowei Wang,
Jos\'e M. F. Moura
- Abstract要約: 少数のトレーニングサンプルしか持たない新しいクラスを認識することを目的としていない。
人間はサンプルの少ない新しいクラスを容易に認識できる。
本稿では,重要なプリミティブからなる特徴表現を学習するためのアプローチを提案する。
- 参考スコア(独自算出の注目度): 43.478770119996184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning (FSL) aims at recognizing novel classes given only few
training samples, which still remains a great challenge for deep learning.
However, humans can easily recognize novel classes with only few samples. A key
component of such ability is the compositional recognition that human can
perform, which has been well studied in cognitive science but is not well
explored in FSL. Inspired by such capability of humans, to imitate humans'
ability of learning visual primitives and composing primitives to recognize
novel classes, we propose an approach to FSL to learn a feature representation
composed of important primitives, which is jointly trained with two parts, i.e.
primitive discovery and primitive enhancing. In primitive discovery, we focus
on learning primitives related to object parts by self-supervision from the
order of image splits, avoiding extra laborious annotations and alleviating the
effect of semantic gaps. In primitive enhancing, inspired by current studies on
the interpretability of deep networks, we provide our composition view for the
FSL baseline model. To modify this model for effective composition, inspired by
both mathematical deduction and biological studies (the Hebbian Learning rule
and the Winner-Take-All mechanism), we propose a soft composition mechanism by
enlarging the activation of important primitives while reducing that of others,
so as to enhance the influence of important primitives and better utilize these
primitives to compose novel classes. Extensive experiments on public benchmarks
are conducted on both the few-shot image classification and video recognition
tasks. Our method achieves the state-of-the-art performance on all these
datasets and shows better interpretability.
- Abstract(参考訳): few-shot learning (fsl) は、わずかなトレーニングサンプルしか与えていない新しいクラスを認識することを目的としている。
しかし、ヒトはわずかなサンプルだけで新しいクラスを容易に認識できる。
このような能力の重要な構成要素は、認知科学でよく研究されているが、FSLでは十分に研究されていない、人間の構成認識である。
人間のこのような能力に触発され、視覚的プリミティブを学習し、プリミティブを構成して新しいクラスを認識する能力を模倣するために、我々はFSLにアプローチし、重要なプリミティブからなる特徴表現(プリミティブ発見とプリミティブ拡張)を学習する。
プリミティブディスカバリでは、画像分割の順序から自己スーパービジョンすることで、オブジェクト部分に関するプリミティブの学習に重点を置いています。
深層ネットワークの解釈可能性に関する最近の研究から着想を得たプリミティブエンハンスメントでは、FSLベースラインモデルのための構成ビューを提供する。
数学的推論と生物学的研究(ヘビアンラーニングルールとウィンナー・テイク・オールのメカニズム)の両面から着想を得たこのモデルを修正するため、重要なプリミティブの活性化を拡大し、他のプリミティブの活性化を低減し、重要なプリミティブの影響を高め、これらのプリミティブを活用して新しいクラスを構築するためのソフトコンポジション機構を提案する。
画像分類と画像認識の両タスクについて,公開ベンチマークによる大規模な実験を行った。
提案手法は,これらすべてのデータセットの最先端性能を達成し,より優れた解釈性を示す。
関連論文リスト
- Adinkra Symbol Recognition using Classical Machine Learning and Deep
Learning [0.0]
我々は、6つの畳み込み層、3つの完全連結層、オプションのドロップアウト正規化を用いて、分類と認識のためのCNNモデルを構築した。
モデルの精度と収束率を測定することにより,モデルの性能を評価する。
この応用が、私たちの伝統的かつモダンな生活を組織する上で、AIのさまざまな用途に関するアイデアを刺激することを期待しています。
論文 参考訳(メタデータ) (2023-11-27T11:26:41Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - Visual-Semantic Contrastive Alignment for Few-Shot Image Classification [1.109560166867076]
Few-Shot Learningは、いくつかのラベル付き例で、目に見えない視覚クラスに適応可能なモデルをトレーニングすることを目的としている。
視覚的特徴ベクトルと意味的特徴ベクトルの対比的なアライメント機構を導入し、より一般化された視覚概念を学習する。
本手法は,視覚カテゴリーの文脈的知識を抽出する補助的コントラスト学習目的を単純に付加する。
論文 参考訳(メタデータ) (2022-10-20T03:59:40Z) - Learning Primitive-aware Discriminative Representations for Few-shot
Learning [28.17404445820028]
少ないショットラーニングは、いくつかのラベル付き例で、新しいクラスを容易に認識できる分類器を学習することを目的としている。
プリミティブ・マイニング・アンド・リ共振ネットワーク(PMRN)を提案し,プリミティブ・アウェアな表現を学習する。
提案手法は,6つの標準ベンチマークの最先端結果を実現する。
論文 参考訳(メタデータ) (2022-08-20T16:22:22Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Class Knowledge Overlay to Visual Feature Learning for Zero-Shot Image
Classification [18.299463254965264]
クラス知識と視覚的特徴学習に基づく新しいゼロショット学習手法GAN-CSTを提案する。
提案されたモデルは最先端のアプローチよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2021-02-26T06:34:35Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。