論文の概要: K-Shot Contrastive Learning of Visual Features with Multiple Instance
Augmentations
- arxiv url: http://arxiv.org/abs/2007.13310v2
- Date: Mon, 1 Feb 2021 08:00:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:37:29.531780
- Title: K-Shot Contrastive Learning of Visual Features with Multiple Instance
Augmentations
- Title(参考訳): 複数インスタンス拡張による視覚特徴のKショットコントラスト学習
- Authors: Haohang Xu, Hongkai Xiong, Guo-Jun Qi
- Abstract要約: 個々のインスタンス内のサンプルのバリエーションを調べるために、$K$-Shot Contrastive Learningが提案されている。
異なるインスタンスを区別するために差別的特徴を学習することで、インスタンス間差別の利点を組み合わせることを目的としている。
提案した$K$-shotのコントラスト学習は、最先端の教師なし手法よりも優れた性能が得られることを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 67.46036826589467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the $K$-Shot Contrastive Learning (KSCL) of visual
features by applying multiple augmentations to investigate the sample
variations within individual instances. It aims to combine the advantages of
inter-instance discrimination by learning discriminative features to
distinguish between different instances, as well as intra-instance variations
by matching queries against the variants of augmented samples over instances.
Particularly, for each instance, it constructs an instance subspace to model
the configuration of how the significant factors of variations in $K$-shot
augmentations can be combined to form the variants of augmentations. Given a
query, the most relevant variant of instances is then retrieved by projecting
the query onto their subspaces to predict the positive instance class. This
generalizes the existing contrastive learning that can be viewed as a special
one-shot case. An eigenvalue decomposition is performed to configure instance
subspaces, and the embedding network can be trained end-to-end through the
differentiable subspace configuration. Experiment results demonstrate the
proposed $K$-shot contrastive learning achieves superior performances to the
state-of-the-art unsupervised methods.
- Abstract(参考訳): 本稿では,複数の補足を適用して各インスタンスのサンプル変動を調べることにより,視覚特徴のk$-shot contrastive learning(kscl)を提案する。
異なるインスタンスを区別するために差別的特徴を学習することで、インスタンス間の差別の利点と、インスタンス上の拡張サンプルの変種とクエリを一致させることによるインスタンス内バリエーションを組み合わせることを目的としている。
特にインスタンスごとにインスタンスサブスペースを構築し、$k$-shot拡張のバリエーションの重要な要因がどのように結合され、拡張のバリエーションを形成するかをモデル化する。
クエリが与えられると、最も関連するインスタンスの変種は、クエリをサブスペースに投影して、ポジティブなインスタンスクラスを予測することで取得される。
これは、特別なワンショットケースと見なせる既存のコントラスト学習を一般化する。
インスタンス部分空間を構成するために固有値分解を行い、埋め込みネットワークを微分可能な部分空間構成を通じてエンドツーエンドに訓練することができる。
提案した$K$-shotのコントラスト学習は,最先端の教師なし手法よりも優れた性能を示す。
関連論文リスト
- CLIP Adaptation by Intra-modal Overlap Reduction [1.2277343096128712]
画像空間におけるモーダル内重なりを埋め込み表現の観点から解析する。
Google Open Imagesデータセットからサンプルのジェネリックセットに軽量アダプタをトレーニングします。
論文 参考訳(メタデータ) (2024-09-17T16:40:58Z) - Contributing Dimension Structure of Deep Feature for Coreset Selection [26.759457501199822]
Coreset selectionは、効率的な学習のための重要なトレーニングサンプルのサブセットを選択することを目指している。
サンプル選択は、パフォーマンス向上におけるサンプルの表現と、オーバーフィッティングを回避するためのサンプルの多様性の役割である。
既存の手法は典型的には類似度の測定値に基づいてデータの表現と多様性を計測する。
論文 参考訳(メタデータ) (2024-01-29T14:47:26Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Explicitly Modeling the Discriminability for Instance-Aware Visual
Object Tracking [13.311777431243296]
特徴表現の識別性を明らかにするための新しいインスタンス・アウェア・トラッカー (IAT) を提案する。
提案するIATには,ビデオレベルとオブジェクトレベルを含む2つのバリエーションを実装している。
どちらのバージョンも30FPSで動作しながら最先端のメソッドに対して主要な結果を得る。
論文 参考訳(メタデータ) (2021-10-28T11:24:01Z) - Episode Adaptive Embedding Networks for Few-shot Learning [4.328767711595871]
エピソード固有のインスタンスの埋め込みを学習するために,emphEpisode Adaptive Embedding Network (EAEN)を提案する。
EAENは、最先端のメソッドに対して異なる設定で10%$から20%$の分類精度を大幅に改善する。
論文 参考訳(メタデータ) (2021-06-17T11:29:33Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z) - Joint Contrastive Learning with Infinite Possibilities [114.45811348666898]
本稿では,新しい確率論的モデリングによるコントラスト学習における最近の発展の有用性について考察する。
コントラスト学習(Joint Contrastive Learning, JCL)という,コントラスト学習の特定の形態を導出する。
論文 参考訳(メタデータ) (2020-09-30T16:24:21Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。