論文の概要: Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning
- arxiv url: http://arxiv.org/abs/2211.16264v1
- Date: Tue, 29 Nov 2022 14:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:28:38.558261
- Title: Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning
- Title(参考訳): 深層学習のための近隣補正を用いたクラス内適応強化
- Authors: Zheren Fu, Zhendong Mao, Bo Hu, An-An Liu, Yongdong Zhang
- Abstract要約: 深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
- 参考スコア(独自算出の注目度): 99.14132861655223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep metric learning aims to learn an embedding space, where semantically
similar samples are close together and dissimilar ones are repelled against. To
explore more hard and informative training signals for augmentation and
generalization, recent methods focus on generating synthetic samples to boost
metric learning losses. However, these methods just use the deterministic and
class-independent generations (e.g., simple linear interpolation), which only
can cover the limited part of distribution spaces around original samples. They
have overlooked the wide characteristic changes of different classes and can
not model abundant intra-class variations for generations. Therefore, generated
samples not only lack rich semantics within the certain class, but also might
be noisy signals to disturb training. In this paper, we propose a novel
intra-class adaptive augmentation (IAA) framework for deep metric learning. We
reasonably estimate intra-class variations for every class and generate
adaptive synthetic samples to support hard samples mining and boost metric
learning losses. Further, for most datasets that have a few samples within the
class, we propose the neighbor correction to revise the inaccurate estimations,
according to our correlation discovery where similar classes generally have
similar variation distributions. Extensive experiments on five benchmarks show
our method significantly improves and outperforms the state-of-the-art methods
on retrieval performances by 3%-6%. Our code is available at
https://github.com/darkpromise98/IAA
- Abstract(参考訳): deep metric learningは、意味的に類似したサンプルが接近し、類似したサンプルが撃退される埋め込み空間を学ぶことを目的としている。
拡張と一般化のためのより硬く情報的な訓練信号を探るため、近年の手法は、メートル法学習損失を高めるための合成サンプルの生成に焦点を当てている。
しかし、これらの手法は、決定論的およびクラス非依存世代(例えば、単純な線形補間)のみを使用し、元のサンプルの周りの分布空間の限られた部分しかカバーできない。
彼らは異なるクラスの幅広い特性変化を見落としており、世代ごとに多くのクラス内変異をモデル化することはできない。
したがって、生成されたサンプルは、特定のクラス内でリッチなセマンティクスを欠いているだけでなく、トレーニングを妨げるノイズ信号でもある。
本稿では,深層メトリック学習のための新しいクラス内適応拡張(iaa)フレームワークを提案する。
各クラスのクラス内変動を合理的に推定し、ハードサンプルマイニングをサポートし、メトリック学習損失を増加させるために適応的な合成サンプルを生成する。
さらに、クラス内にいくつかのサンプルを持つほとんどのデータセットに対して、類似のクラスが概して類似の変動分布を持つ相関発見に基づいて、不正確な推定を修正するための近傍補正を提案する。
5つのベンチマークを用いた広範囲な実験により,検索性能における最先端の手法を3%-6%向上させた。
私たちのコードはhttps://github.com/darkpromise98/IAAで利用可能です。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - Adaptive Intra-Class Variation Contrastive Learning for Unsupervised Person Re-Identification [10.180143197144803]
AdaInCVと呼ばれる教師なしRe-IDのための適応型クラス内変動コントラスト学習アルゴリズムを提案する。
このアルゴリズムは,クラスタリング後のクラス内変動を考慮し,各クラスのモデルの学習能力を定量的に評価する。
より具体的には、Adaptive Sample Mining (AdaSaM)とAdaptive Outlier Filter (AdaOF)の2つの新しい戦略が提案されている。
論文 参考訳(メタデータ) (2024-04-06T15:48:14Z) - Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Lightweight Conditional Model Extrapolation for Streaming Data under
Class-Prior Shift [27.806085423595334]
非定常ストリーミングデータを用いて学習する新しい方法であるLIMESを紹介する。
我々は、特定のデータ分布に対する特定の分類器を導出するモデルパラメータの集合を1つ学習する。
Twitterデータを用いた一連の模範的なタスクの実験では、LIMESが代替手法よりも高い精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-10T15:19:52Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。