論文の概要: Proxy Synthesis: Learning with Synthetic Classes for Deep Metric
Learning
- arxiv url: http://arxiv.org/abs/2103.15454v1
- Date: Mon, 29 Mar 2021 09:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-30 15:14:02.559510
- Title: Proxy Synthesis: Learning with Synthetic Classes for Deep Metric
Learning
- Title(参考訳): プロキシ合成:Deep Metric Learningのための合成クラスによる学習
- Authors: Geonmo Gu, Byungsoo Ko, Han-Gyu Kim
- Abstract要約: 深層メトリック学習におけるより強固な一般化のために,合成クラスを活用したプロキシ合成と呼ばれる単純な正規化器を提案する。
提案手法は合成クラスとして動作する合成埋め込みとプロキシを生成し,プロキシベースの損失を計算する際に未知のクラスを模倣する。
本手法はsoftmaxとその変種を含む任意のプロキシベース損失に適用可能である。
- 参考スコア(独自算出の注目度): 13.252164137961332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main purposes of deep metric learning is to construct an embedding
space that has well-generalized embeddings on both seen (training) classes and
unseen (test) classes. Most existing works have tried to achieve this using
different types of metric objectives and hard sample mining strategies with
given training data. However, learning with only the training data can be
overfitted to the seen classes, leading to the lack of generalization
capability on unseen classes. To address this problem, we propose a simple
regularizer called Proxy Synthesis that exploits synthetic classes for stronger
generalization in deep metric learning. The proposed method generates synthetic
embeddings and proxies that work as synthetic classes, and they mimic unseen
classes when computing proxy-based losses. Proxy Synthesis derives an embedding
space considering class relations and smooth decision boundaries for robustness
on unseen classes. Our method is applicable to any proxy-based losses,
including softmax and its variants. Extensive experiments on four famous
benchmarks in image retrieval tasks demonstrate that Proxy Synthesis
significantly boosts the performance of proxy-based losses and achieves
state-of-the-art performance.
- Abstract(参考訳): 深層メトリック学習の主な目的の1つは、見られている(訓練)クラスと見当たらない(テスト)クラスの両方に十分に一般化された埋め込みを持つ埋め込み空間を構築することである。
既存の研究の多くは、異なる種類の測定目標と、与えられたトレーニングデータによるハードサンプルマイニング戦略を用いてこれを達成しようと試みている。
しかし、トレーニングデータのみによる学習は、見知らぬクラスに過度に適合し、見つからないクラスに対する一般化能力の欠如につながる。
この問題に対処するため、深層学習におけるより強力な一般化のために合成クラスを利用する、Proxy Synthesisと呼ばれる単純な正規化器を提案する。
提案手法は合成クラスとして動作する合成埋め込みとプロキシを生成し,プロキシベースの損失を計算する際に未知のクラスを模倣する。
プロキシ合成は、クラス関係と滑らかな決定境界を考慮した埋め込み空間を導出する。
本手法はsoftmaxとその変種を含む任意のプロキシベース損失に適用可能である。
画像検索タスクにおける4つの有名なベンチマーク実験により、プロキシベースの損失が大幅に増加し、最先端のパフォーマンスが達成されることを示した。
関連論文リスト
- Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - Learning to Generate Novel Classes for Deep Metric Learning [24.048915378172012]
本稿では,新しいクラスとその埋め込みベクトルを合成するデータ拡張手法を提案する。
クラスラベルとノイズを与えられた条件付き生成モデルを学習し、活用することにより、クラスにランダムな埋め込みベクトルを生成する。
提案したジェネレータは,現実的で多様なクラスを増大させることで,よりリッチなクラス関係を利用でき,その結果,見つからないサンプルをより一般化することができる。
論文 参考訳(メタデータ) (2022-01-04T06:55:19Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Hierarchical Proxy-based Loss for Deep Metric Learning [32.10423536428467]
プロキシベースのメトリック学習の損失は、高速収束とトレーニングの複雑さが低いため、ペアベースの損失よりも優れている。
我々は,この暗黙の階層を,プロキシに階層構造を課すことで活用するフレームワークを提案する。
その結果、階層型プロキシベースの損失フレームワークは、既存のプロキシベースの損失のパフォーマンスを改善します。
論文 参考訳(メタデータ) (2021-03-25T00:38:33Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Adaptive additive classification-based loss for deep metric learning [0.0]
分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
論文 参考訳(メタデータ) (2020-06-25T20:45:22Z) - Proxy Anchor Loss for Deep Metric Learning [47.832107446521626]
我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
論文 参考訳(メタデータ) (2020-03-31T02:05:27Z) - Symmetrical Synthesis for Deep Metric Learning [17.19890778916312]
対称合成と呼ばれる新しい合成ハードサンプル生成法を提案する。
同じクラスから2つの元の特徴点が与えられた場合、提案手法は対称性の軸として互いに合成点を生成する。
原点および合成点内で硬い負のペアマイニングを行い、計量学習損失を計算するためのより有益な負のペアを選択する。
論文 参考訳(メタデータ) (2020-01-31T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。