論文の概要: Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning
- arxiv url: http://arxiv.org/abs/2304.10941v1
- Date: Fri, 21 Apr 2023 13:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 14:41:55.442979
- Title: Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning
- Title(参考訳): 半教師付き学習視点における内分散支援による深層メトリック学習
- Authors: Liu Pingping, Liu Zetong, Lang Yijun, Zhou Qiuzhan, Li Qingliang
- Abstract要約: ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep metric learning aims to construct an embedding space where samples of
the same class are close to each other, while samples of different classes are
far away from each other. Most existing deep metric learning methods attempt to
maximize the difference of inter-class features. And semantic related
information is obtained by increasing the distance between samples of different
classes in the embedding space. However, compressing all positive samples
together while creating large margins between different classes unconsciously
destroys the local structure between similar samples. Ignoring the intra-class
variance contained in the local structure between similar samples, the
embedding space obtained from training receives lower generalizability over
unseen classes, which would lead to the network overfitting the training set
and crashing on the test set. To address these considerations, this paper
designs a self-supervised generative assisted ranking framework that provides a
semi-supervised view of intra-class variance learning scheme for typical
supervised deep metric learning. Specifically, this paper performs sample
synthesis with different intensities and diversity for samples satisfying
certain conditions to simulate the complex transformation of intra-class
samples. And an intra-class ranking loss function is designed using the idea of
self-supervised learning to constrain the network to maintain the intra-class
distribution during the training process to capture the subtle intra-class
variance. With this approach, a more realistic embedding space can be obtained
in which global and local structures of samples are well preserved, thus
enhancing the effectiveness of downstream tasks. Extensive experiments on four
benchmarks have shown that this approach surpasses state-of-the-art methods
- Abstract(参考訳): deep metric learningは、同じクラスのサンプルが互いに近く、異なるクラスのサンプルが互いに遠く離れている埋め込み空間を構築することを目的としている。
既存のディープメトリック学習法のほとんどは、クラス間特徴の差を最大化しようと試みている。
そして、埋め込み空間における異なるクラスのサンプル間の距離を増やすことで意味関連情報を得る。
しかし、全ての正のサンプルを圧縮し、異なるクラス間で大きな縁をつくりながら、同じサンプル間の局所構造を無意識に破壊する。
類似したサンプル間の局所構造に含まれるクラス内分散を無視すると、トレーニングから得られる埋め込み空間は、目に見えないクラスよりも低い一般化性を受け、トレーニングセットに適合し、テストセットにクラッシュするネットワークにつながる。
そこで,本研究では,一般的な教師付き深層メトリック学習のためのクラス内分散学習スキームの半教師付き視点を提供する,自己教師付き生成支援ランキングフレームワークを提案する。
具体的には,クラス内サンプルの複雑な変換をシミュレートするために,特定の条件を満たす試料の強度と多様性の異なる試料合成を行う。
また、自己教師型学習のアイデアを用いて、クラス内分布の微妙な分散を捕捉する訓練過程において、クラス内分布の維持をネットワークに制約するクラス内ランキング損失関数を設計する。
このアプローチにより、サンプルのグローバル構造とローカル構造が十分に保存されたより現実的な埋め込み空間が得られ、下流タスクの有効性が向上する。
4つのベンチマークの大規模な実験は、このアプローチが最先端の手法を超えることを示した。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Is it all a cluster game? -- Exploring Out-of-Distribution Detection
based on Clustering in the Embedding Space [7.856998585396422]
新しい入力がトレーニング分布と大きく異なるタイミングを決定するためには、ディープニューラルネットワークの安全性クリティカルな応用が不可欠である。
埋め込み空間におけるクラスタの構造と分離について検討し、教師付きコントラスト学習が十分に分離されたクラスタに繋がることを示す。
異なるトレーニング方法、クラスタリング戦略、距離メトリクス、しきい値設定アプローチの分析において、明確な勝者は存在しない。
論文 参考訳(メタデータ) (2022-03-16T11:22:23Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Self-Supervised Learning by Estimating Twin Class Distributions [26.7828253129684]
本稿では,大規模未ラベルデータセットをエンドツーエンドに分類し,自己教師付き表現学習手法TWISTを提案する。
2つの拡張画像の2つのクラス分布を生成するために、ソフトマックス演算で終了するシマセネットワークを用いる。
具体的には、各サンプルの分布のエントロピーを最小化し、各サンプルのクラス予測を行い、平均分布のエントロピーを最大化し、異なるサンプルの予測を多様化させる。
論文 参考訳(メタデータ) (2021-10-14T14:39:39Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。