論文の概要: COMPAS: Representation Learning with Compositional Part Sharing for
Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2101.11878v1
- Date: Thu, 28 Jan 2021 09:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:15:58.514296
- Title: COMPAS: Representation Learning with Compositional Part Sharing for
Few-Shot Classification
- Title(参考訳): COMPAS: Few-Shot Classificationのための構成部分共有による表現学習
- Authors: Ju He, Adam Kortylewski, Alan Yuille
- Abstract要約: 画像分類は2つの連続的な学習プロセスから構成される。
人間におけるオブジェクトの合成表現にインスパイアされた私たちは、オブジェクトを一組のパーツとして明示的に表現するニューラルネットワークアーキテクチャをトレーニングします。
我々は,miniImageNet, tieredImageNet, CIFAR-FS, FC100 を用いた数ショット分類のための合成学習フレームワークの価値を実証した。
- 参考スコア(独自算出の注目度): 10.718573053194742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image classification consists of two consecutive learning processes:
1) In the meta-learning stage, the model acquires a knowledge base from a set
of training classes. 2) During meta-testing, the acquired knowledge is used to
recognize unseen classes from very few examples. Inspired by the compositional
representation of objects in humans, we train a neural network architecture
that explicitly represents objects as a set of parts and their spatial
composition. In particular, during meta-learning, we train a knowledge base
that consists of a dictionary of part representations and a dictionary of part
activation maps that encode frequent spatial activation patterns of parts. The
elements of both dictionaries are shared among the training classes. During
meta-testing, the representation of unseen classes is learned using the part
representations and the part activation maps from the knowledge base. Finally,
an attention mechanism is used to strengthen those parts that are most
important for each category. We demonstrate the value of our compositional
learning framework for a few-shot classification using miniImageNet,
tieredImageNet, CIFAR-FS, and FC100, where we achieve state-of-the-art
performance.
- Abstract(参考訳): 少数の画像分類は、2つの連続学習プロセスで構成されています。1)メタラーニング段階では、モデルは一連のトレーニングクラスから知識ベースを取得します。
2) メタテスト中, 獲得した知識は, ごく少数の例から見知らぬクラスを認識するのに使用される。
人間のオブジェクトの合成表現に着想を得て、オブジェクトを部分の集合とその空間構成として明示的に表現するニューラルネットワークアーキテクチャを訓練する。
特にメタラーニングでは,部分表現の辞書と部分活性化マップの辞書からなる知識ベースを訓練し,部分の頻繁な空間活性化パターンを符号化する。
両方の辞書の要素は、トレーニングクラスで共有される。
メタテスト中、未知のクラスの表現は、知識ベースから部分表現と部分活性化マップを用いて学習される。
最後に、各カテゴリで最も重要な部分を強化するために注意機構が使用される。
我々は,MiniImageNet,ticredImageNet,CIFAR-FS,FC100を用いた数ショット分類のための合成学習フレームワークの価値を実証した。
関連論文リスト
- HOMOE: A Memory-Based and Composition-Aware Framework for Zero-Shot
Learning with Hopfield Network and Soft Mixture of Experts [25.930021907054797]
そこで本稿では,現代ホップフィールドネットワークとエキスパートの混合を併用した新しいフレームワークを提案し,これまでに見つからなかったオブジェクトの合成を分類する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
論文 参考訳(メタデータ) (2023-11-23T07:32:20Z) - Part-aware Prototypical Graph Network for One-shot Skeleton-based Action
Recognition [57.86960990337986]
ワンショットスケルトンに基づくアクション認識は、ベースクラスから新しいクラスへの変換可能な表現を学習する上で、ユニークな課題となる。
単発骨格に基づく行動認識のためのパートアウェアなプロトタイプ表現を提案する。
本手法の有効性を2つの公開骨格に基づく行動認識データセットに示す。
論文 参考訳(メタデータ) (2022-08-19T04:54:56Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Learning Graph Embeddings for Compositional Zero-shot Learning [73.80007492964951]
合成ゼロショット学習では、観察された視覚的原始状態の見えない構成を認識することが目的である。
本稿では,画像特徴と視覚的プリミティブの潜在表現をエンドツーエンドに学習するCGEという新しいグラフ定式化を提案する。
概念間のセマンティクスを符号化する共同互換性を学習することにより、WordNetのような外部知識ベースに頼ることなく、構成を見えないように一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T10:11:03Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Group Based Deep Shared Feature Learning for Fine-grained Image
Classification [31.84610555517329]
共有された特徴を明示的にモデル化し、その効果を除去し、拡張された分類結果を得るための新しいディープネットワークアーキテクチャを提案する。
我々はこのフレームワークをグループベースのDeep Shared Feature Learning (GSFL)と呼び、学習したネットワークをGSFL-Netと呼ぶ。
特殊オートエンコーダの重要な利点は、多用途であり、最先端のきめ細かい特徴抽出モデルと組み合わせて、それらと一緒にトレーニングすることで、パフォーマンスを直接改善できる点である。
論文 参考訳(メタデータ) (2020-04-04T00:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。