論文の概要: Learning Intra-Batch Connections for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2102.07753v1
- Date: Mon, 15 Feb 2021 18:50:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 02:09:21.115298
- Title: Learning Intra-Batch Connections for Deep Metric Learning
- Title(参考訳): 深層学習のためのバッチ内接続学習
- Authors: Jenny Seidenschwarz, Ismail Elezi, Laura Leal-Taix\'e
- Abstract要約: メートル法学習は、類似のサンプルが異種よりも近い低次元空間にサンプルをマッピングする関数を学習することを目的としている。
ほとんどのアプローチは、サンプルのペアまたはトリプレット間の関係のみを考慮した損失に依存する。
ミニバッチにおけるすべての関係を考慮に入れたメッセージパッシングネットワークに基づくアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.5665681694253903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of metric learning is to learn a function that maps samples to a
lower-dimensional space where similar samples lie closer than dissimilar ones.
In the case of deep metric learning, the mapping is performed by training a
neural network. Most approaches rely on losses that only take the relations
between pairs or triplets of samples into account, which either belong to the
same class or to two different classes. However, these approaches do not
explore the embedding space in its entirety. To this end, we propose an
approach based on message passing networks that takes into account all the
relations in a mini-batch. We refine embedding vectors by exchanging messages
among all samples in a given batch allowing the training process to be aware of
the overall structure. Since not all samples are equally important to predict a
decision boundary, we use dot-product self-attention during message passing to
allow samples to weight the importance of each neighbor accordingly. We achieve
state-of-the-art results on clustering and image retrieval on the CUB-200-2011,
Cars196, Stanford Online Products, and In-Shop Clothes datasets.
- Abstract(参考訳): 計量学習の目標は、サンプルを類似したサンプルが異種よりも近い低次元空間にマッピングする関数を学習することである。
ディープメトリック学習の場合、マッピングはニューラルネットワークを訓練することによって行われます。
ほとんどのアプローチは、同じクラスまたは2つの異なるクラスに属するサンプルのペアまたはトリプルレット間の関係のみを考慮する損失に依存します。
しかし、これらのアプローチは全体の埋め込み空間を探索しない。
そこで本稿では,ミニバッチにおけるすべての関係を考慮に入れたメッセージパッシングネットワークに基づくアプローチを提案する。
与えられたバッチ内で、すべてのサンプル間でメッセージを交換することで、埋め込みベクターを洗練し、トレーニングプロセスが全体構造を認識します。
すべてのサンプルが決定境界を予測するのに等しく重要であるわけではないので、メッセージパッシング中にドット積の自己注意を使用して、サンプルがそれぞれの隣人の重要性を重み付けることができる。
CUB-200-2011, Cars196, Stanford Online Products, In-Shop Clothes のクラスタリングと画像検索の最先端の成果を得た。
関連論文リスト
- Siamese Networks for Weakly Supervised Human Activity Recognition [2.398608007786179]
本稿では,データサンプルの類似性に関する情報のみを用いて,明示的なラベルを知らずに学習した複数のシアムネットワークを用いたモデルを提案する。
トレーニングされたモデルは、アクティビティデータサンプルを、表現空間内のベクトル間の距離が入力空間内のデータサンプルの類似性を近似するように、固定サイズ表現ベクトルにマッピングする。
本研究では,連続した人間の活動系列のセグメンテーションと認識において,その有効性を検証するために,3つのデータセット上でモデルを評価した。
論文 参考訳(メタデータ) (2023-07-18T03:23:34Z) - Memorization Through the Lens of Curvature of Loss Function Around
Samples [10.028765645749338]
そこで本研究では,各トレーニング試料の曲率を,トレーニングエポックよりも平均的に算出し,サンプルの記憶の指標として用いることを提案する。
まず、高い曲率のサンプルは、長い尾、ラベルのずれ、あるいは矛盾するサンプルと視覚的に対応していることを示します。
この分析は、私たちの知る限り、CIFAR100とImageNetデータセットの新たな障害モードを見つけるのに役立ちます。
論文 参考訳(メタデータ) (2023-07-11T22:53:09Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Information Bottleneck-Based Hebbian Learning Rule Naturally Ties
Working Memory and Synaptic Updates [0.0]
私たちは、バックプロパゲーションとその関連する問題を完全に回避する、別のアプローチを取っています。
深層学習における最近の研究は、情報ボトルネック(IB)を介してネットワークの各層を個別に訓練することを提案した。
この変調信号は、貯水池のような動作記憶を持つ補助回路で学習可能であることを示す。
論文 参考訳(メタデータ) (2021-11-24T17:38:32Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。