論文の概要: Represent, Compare, and Learn: A Similarity-Aware Framework for
Class-Agnostic Counting
- arxiv url: http://arxiv.org/abs/2203.08354v1
- Date: Wed, 16 Mar 2022 02:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:50:00.508374
- Title: Represent, Compare, and Learn: A Similarity-Aware Framework for
Class-Agnostic Counting
- Title(参考訳): 表現、比較、学習:クラスに依存しないカウントのための類似性認識フレームワーク
- Authors: Min Shi, Hao Lu, Chen Feng, Chengxin Liu, Zhiguo Cao
- Abstract要約: クラスに依存しないカウントは、例の少ないクエリイメージですべてのインスタンスをカウントすることを目的としている。
既存の手法では、事前訓練されたネットワークを使って特徴を表現するか、新しいものを学ぶ。
本稿では,表現と類似度を共同で学習する類似度対応CACフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.34585324943777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-agnostic counting (CAC) aims to count all instances in a query image
given few exemplars. A standard pipeline is to extract visual features from
exemplars and match them with query images to infer object counts. Two
essential components in this pipeline are feature representation and similarity
metric. Existing methods either adopt a pretrained network to represent
features or learn a new one, while applying a naive similarity metric with
fixed inner product. We find this paradigm leads to noisy similarity matching
and hence harms counting performance. In this work, we propose a
similarity-aware CAC framework that jointly learns representation and
similarity metric. We first instantiate our framework with a naive baseline
called Bilinear Matching Network (BMNet), whose key component is a learnable
bilinear similarity metric. To further embody the core of our framework, we
extend BMNet to BMNet+ that models similarity from three aspects: 1)
representing the instances via their self-similarity to enhance feature
robustness against intra-class variations; 2) comparing the similarity
dynamically to focus on the key patterns of each exemplar; 3) learning from a
supervision signal to impose explicit constraints on matching results.
Extensive experiments on a recent CAC dataset FSC147 show that our models
significantly outperform state-of-the-art CAC approaches. In addition, we also
validate the cross-dataset generality of BMNet and BMNet+ on a car counting
dataset CARPK. Code is at tiny.one/BMNet
- Abstract(参考訳): CAC(Class-Agnostic counting)は、クエリイメージ内のすべてのインスタンスを数えることを目的としている。
標準的なパイプラインは、例から視覚的特徴を抽出し、それらをクエリイメージとマッチングしてオブジェクト数を推測する。
このパイプラインの2つの重要なコンポーネントは、機能表現と類似度メトリックである。
既存の手法では、事前訓練されたネットワークを使用して特徴を表現したり、新しいものを学習する一方、内部積を固定した単純類似度メトリックを適用する。
このパラダイムは、ノイズの多い類似性マッチングにつながるため、パフォーマンスのカウントを損なう。
本研究では,表現と類似度を共同で学習する類似度対応CACフレームワークを提案する。
まず、学習可能な双線形類似度指標であるBMNet(Bilinear Matching Network)と呼ばれる単純なベースラインでフレームワークをインスタンス化する。
フレームワークのコアをさらに具体化するために、BMNetをBMNet+に拡張し、3つの側面から類似性をモデル化します。
1) 自己相似性によるインスタンスの表現により,クラス内変動に対する特徴的堅牢性を高める。
2) 類似性を動的に比較し,各例のキーパターンに着目すること。
3)マッチング結果に明示的な制約を課すための監督信号からの学習。
最近のCACデータセットFSC147の大規模な実験により、我々のモデルは最先端のCACアプローチを大きく上回っていることがわかった。
さらに、カーカウントデータセットCARPK上でBMNetとBMNet+のクロスデータセットの汎用性を検証した。
コードは little.one/BMNet
関連論文リスト
- Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning [35.53729744330751]
コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
このバイナリインスタンス識別は、自己教師付き学習における特徴表現を改善するために広範囲に研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
論文 参考訳(メタデータ) (2023-03-30T04:22:07Z) - Not All Instances Contribute Equally: Instance-adaptive Class
Representation Learning for Few-Shot Visual Recognition [94.04041301504567]
少数ショットの視覚認識は、いくつかのラベル付きインスタンスから新しい視覚概念を認識することを指す。
本稿では,数ショットの視覚認識を実現するために,インスタンス適応型クラス表現学習ネットワーク(ICRL-Net)と呼ばれる新しいメトリックベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:00:18Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Multi-similarity based Hyperrelation Network for few-shot segmentation [2.306100133614193]
ほとんどショットのセマンティックセグメンテーションは、見知らぬカテゴリのオブジェクト領域を、いくつかの例で認識することを目的としている。
本稿では,MSHNet(Multi-similarity Hyperrelation Network)を提案する。
論文 参考訳(メタデータ) (2022-03-17T18:16:52Z) - Contextualizing Meta-Learning via Learning to Decompose [125.76658595408607]
本稿では,メタ学習型サポート・ツー・ターゲット戦略の文脈化を図るために,ネットワーク(LeadNet)を分解する学習を提案する。
LeadNetは、コンテキスト間の比較をポリセムの埋め込みに組み込むことで、右に関連付けられた戦略を自動的に選択することを学ぶ。
論文 参考訳(メタデータ) (2021-06-15T13:10:56Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。