論文の概要: Learning to Compare Relation: Semantic Alignment for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2003.00210v2
- Date: Fri, 7 Jan 2022 08:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:54:22.756288
- Title: Learning to Compare Relation: Semantic Alignment for Few-Shot Learning
- Title(参考訳): 関係性比較のための学習--マイトショット学習のための意味的アライメント
- Authors: Congqi Cao and Yanning Zhang
- Abstract要約: 本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
- 参考スコア(独自算出の注目度): 48.463122399494175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning is a fundamental and challenging problem since it requires
recognizing novel categories from only a few examples. The objects for
recognition have multiple variants and can locate anywhere in images. Directly
comparing query images with example images can not handle content misalignment.
The representation and metric for comparison are critical but challenging to
learn due to the scarcity and wide variation of the samples in few-shot
learning. In this paper, we present a novel semantic alignment model to compare
relations, which is robust to content misalignment. We propose to add two key
ingredients to existing few-shot learning frameworks for better feature and
metric learning ability. First, we introduce a semantic alignment loss to align
the relation statistics of the features from samples that belong to the same
category. And second, local and global mutual information maximization is
introduced, allowing for representations that contain locally-consistent and
intra-class shared information across structural locations in an image.
Thirdly, we introduce a principled approach to weigh multiple loss functions by
considering the homoscedastic uncertainty of each stream. We conduct extensive
experiments on several few-shot learning datasets. Experimental results show
that the proposed method is capable of comparing relations with semantic
alignment strategies, and achieves state-of-the-art performance.
- Abstract(参考訳): 数少ない学習は、いくつかの例から新しいカテゴリを認識する必要があるため、基本的かつ困難な問題である。
認識対象は複数の変種を持ち、画像のどこにでも配置できる。
クエリイメージとサンプルイメージを直接比較しても、コンテンツの誤用は処理できない。
比較のための表現とメトリクスは重要だが、少数の学習でサンプルが不足し、幅広いバリエーションがあるため、学ぶのが難しい。
本稿では,コンテンツアライメントに頑健な関係を比較するために,新しいセマンティックアライメントモデルを提案する。
機能向上とメートル法学習能力向上のために,既存の数ショット学習フレームワークに2つの重要な要素を加えることを提案する。
まず,同一カテゴリに属するサンプルからの特徴の関連統計を整理するために,意味的アライメントの損失を導入する。
次に、ローカルおよびグローバル相互情報最大化が導入され、画像内の構造的位置間での局所的一貫性とクラス内共有情報を含む表現が可能になる。
第3に,各ストリームのホモシデスティック不確かさを考慮し,複数の損失関数を重み付けるための原理的手法を提案する。
数回の学習データセットを広範囲に実験する。
実験の結果,提案手法は意味的アライメント戦略との関係を比較でき,最先端の性能が得られることがわかった。
関連論文リスト
- LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Learning the Relation between Similarity Loss and Clustering Loss in
Self-Supervised Learning [27.91000553525992]
自己教師付き学習は、ネットワークが大量のデータから識別的特徴を学習することを可能にする。
類似度損失と特徴レベルのクロスエントロピー損失の関係を解析する。
これらの2つの損失の適切な組み合わせが、最先端の結果が得られることを示すための理論的分析と実験を提供する。
論文 参考訳(メタデータ) (2023-01-08T13:30:39Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - BSNet: Bi-Similarity Network for Few-shot Fine-grained Image
Classification [35.50808687239441]
いわゆるtextitBi-Similarity Network (textitBSNet) を提案する。
両相似モジュールは、多様な特性の2つの類似度尺度に従って特徴写像を学習する。
このようにして、モデルはより差別的で類似度に富んだ特徴を、よりきめ細かい画像の少ないショットから学習することができる。
論文 参考訳(メタデータ) (2020-11-29T08:38:17Z) - Rethinking Class Relations: Absolute-relative Supervised and
Unsupervised Few-shot Learning [157.62595449130973]
本稿では,現在の数ショット学習法における単純化型クラスモデリングの基本的問題について検討する。
本稿では,ラベル情報をフル活用して画像表現を洗練するための,絶対相対学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-01-12T12:25:46Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。