論文の概要: It Takes Two to Tango: Mixup for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2106.04990v1
- Date: Wed, 9 Jun 2021 11:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 23:31:04.048331
- Title: It Takes Two to Tango: Mixup for Deep Metric Learning
- Title(参考訳): Tangoに2つ必要な - 深層学習のためのMixup
- Authors: Shashanka Venkataramanan, Bill Psomas, Yannis Avrithis, Ewa Kijak,
Laurent Amsaleg, Konstantinos Karantzalos
- Abstract要約: 最先端の手法は、主に高度な損失関数や鉱業戦略に焦点を当てている。
Mixupは、2つ以上のサンプルと対応するターゲットラベルを同時に補間する強力なデータ拡張アプローチである。
入力、中間表現、埋め込みを対象ラベルと組み合わせることで、表現を著しく改善し、4つのベンチマークデータセットにおける最先端のメトリック学習方法より優れていることを示す。
- 参考スコア(独自算出の注目度): 16.60855728302127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric learning involves learning a discriminative representation such that
embeddings of similar classes are encouraged to be close, while embeddings of
dissimilar classes are pushed far apart. State-of-the-art methods focus mostly
on sophisticated loss functions or mining strategies. On the one hand, metric
learning losses consider two or more examples at a time. On the other hand,
modern data augmentation methods for classification consider two or more
examples at a time. The combination of the two ideas is under-studied.
In this work, we aim to bridge this gap and improve representations using
mixup, which is a powerful data augmentation approach interpolating two or more
examples and corresponding target labels at a time. This task is challenging
because, unlike classification, the loss functions used in metric learning are
not additive over examples, so the idea of interpolating target labels is not
straightforward. To the best of our knowledge, we are the first to investigate
mixing examples and target labels for deep metric learning. We develop a
generalized formulation that encompasses existing metric learning loss
functions and modify it to accommodate for mixup, introducing Metric Mix, or
Metrix. We show that mixing inputs, intermediate representations or embeddings
along with target labels significantly improves representations and outperforms
state-of-the-art metric learning methods on four benchmark datasets.
- Abstract(参考訳): メトリクス学習は、類似クラスの埋め込みが近くになるように差別的な表現を学ぶことを含み、異なるクラスの埋め込みは遠くまで押し出されます。
最先端の手法は主に高度な損失関数や鉱業戦略に焦点を当てている。
一方、メトリック学習の損失は、一度に2つ以上の例を考える。
一方,分類のための現代的データ拡張手法では,一度に2つ以上の例を考察する。
2つのアイデアの組み合わせは未研究である。
本研究では,2つ以上のサンプルと対応するターゲットラベルを一度に補間する強力なデータ拡張手法であるmixupを用いて,このギャップを解消し,表現を改善することを目的とする。
この課題は、分類とは異なり、メトリック学習で使われる損失関数は例に加算されないため、対象ラベルを補間するという考えは単純ではないため、難しい。
私たちの知識を最大限に活用するために、深層メトリック学習のためのサンプルとターゲットラベルの混合を調査した最初の人物です。
我々は,既存のメトリック学習損失関数を包含する一般化された定式化を開発し,Metric MixやMetrixを導入して,ミックスアップに対応するように修正する。
入力,中間表現,埋め込みを混合することで,4つのベンチマークデータセットにおける表現が大幅に改善され,最先端のメトリック学習手法を上回っていることを示す。
関連論文リスト
- Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Metric Learning as a Service with Covariance Embedding [7.5989847759545155]
メトリック学習は、クラス内およびクラス間の類似性を最大化し、最小化する。
既存のモデルは、分離可能な埋め込み空間を得るために主に距離測度に依存する。
高性能なディープラーニングアプリケーションのためのサービスとしてメトリック学習を有効にするためには、クラス間の関係も賢明に扱うべきだ、と我々は主張する。
論文 参考訳(メタデータ) (2022-11-28T10:10:59Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Unsupervised Deep Metric Learning via Orthogonality based Probabilistic
Loss [27.955068939695042]
既存の最先端のメトリック学習アプローチでは、メトリクスを学ぶためにクラスラベルが必要である。
クラスラベルを使わずにメトリクスを学習する教師なしアプローチを提案する。
擬似ラベルは、メートル法学習のガイドとなる3つの例を形成するために使用される。
論文 参考訳(メタデータ) (2020-08-22T17:13:33Z) - Metric Learning vs Classification for Disentangled Music Representation
Learning [36.74680586571013]
本稿では,メートル法学習と分類,ゆがみの関係を包括的に解明する単一の表現学習フレームワークを提案する。
分類に基づくモデルは、訓練時間、類似性検索、自動タグ付けに一般的に有利であるのに対し、深度検定学習は三重項予測により良い性能を示す。
論文 参考訳(メタデータ) (2020-08-09T13:53:12Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。