論文の概要: Rethinking preventing class-collapsing in metric learning with
margin-based losses
- arxiv url: http://arxiv.org/abs/2006.05162v2
- Date: Fri, 27 Aug 2021 14:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:52:31.694717
- Title: Rethinking preventing class-collapsing in metric learning with
margin-based losses
- Title(参考訳): マージンベース損失を伴う計量学習におけるクラスコラプス防止の再考
- Authors: Elad Levi, Tete Xiao, Xiaolong Wang, Trevor Darrell
- Abstract要約: メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
- 参考スコア(独自算出の注目度): 81.22825616879936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric learning seeks perceptual embeddings where visually similar instances
are close and dissimilar instances are apart, but learned representations can
be sub-optimal when the distribution of intra-class samples is diverse and
distinct sub-clusters are present. Although theoretically with optimal
assumptions, margin-based losses such as the triplet loss and margin loss have
a diverse family of solutions. We theoretically prove and empirically show that
under reasonable noise assumptions, margin-based losses tend to project all
samples of a class with various modes onto a single point in the embedding
space, resulting in a class collapse that usually renders the space ill-sorted
for classification or retrieval. To address this problem, we propose a simple
modification to the embedding losses such that each sample selects its nearest
same-class counterpart in a batch as the positive element in the tuple. This
allows for the presence of multiple sub-clusters within each class. The
adaptation can be integrated into a wide range of metric learning losses. The
proposed sampling method demonstrates clear benefits on various fine-grained
image retrieval datasets over a variety of existing losses; qualitative
retrieval results show that samples with similar visual patterns are indeed
closer in the embedding space.
- Abstract(参考訳): メトリック学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離する知覚的埋め込みを求めるが、クラス内サンプルの分布が多様で異なるサブクラスタが存在する場合、学習された表現は最適となる。
理論的には最適仮定と一致するが、三重項損失やマージン損失のようなマージンベース損失は様々な解群を持つ。
理論的には、合理的な雑音仮定の下では、マージンに基づく損失は、様々なモードを持つクラスのすべてのサンプルを埋め込み空間の単一点に投影する傾向にあり、その結果、クラス崩壊は通常、分類や検索に不適な空間を生じさせる。
この問題に対処するため,各サンプルが最寄りの同一クラスをタプルの正の要素としてバッチで選択するように,組込み損失の簡易な修正を提案する。
これにより、各クラス内に複数のサブクラスタが存在することができる。
この適応は、幅広いメトリック学習損失に統合することができる。
提案手法は, 各種画像検索データセットにおいて, 類似した視覚パターンのサンプルが組込み空間に近接していることが定性的検索結果から明らかである。
関連論文リスト
- Geometric Mean Improves Loss For Few-Shot Learning [22.919680257199754]
本研究では, 識別指標を深部特徴に埋め込むために, エンフェロメトリ平均に基づく新たな損失を提案する。
少数ショット画像分類タスクの実験では、他の損失と比べて競争性能が向上した。
論文 参考訳(メタデータ) (2025-01-24T15:56:55Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - MSE Loss with Outlying Label for Imbalanced Classification [10.305130700118399]
クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
論文 参考訳(メタデータ) (2021-07-06T05:17:00Z) - Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning [49.04790688256481]
一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T05:21:27Z) - Unsupervised Representation Learning by InvariancePropagation [34.53866045440319]
本稿では,カテゴリーレベルの変分に不変な学習表現に焦点をあてる不変分散伝播を提案する。
バックボーンとしてResNet-50を用いると、ImageNetの線形分類では71.3%の精度で、1%のラベルだけで78.2%の精度で微調整できる。
また、Places205とPascal VOCの線形分類や、小規模データセットでの転送学習など、他の下流タスクにおける最先端のパフォーマンスも達成している。
論文 参考訳(メタデータ) (2020-10-07T13:00:33Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。