論文の概要: Embedding Expansion: Augmentation in Embedding Space for Deep Metric
Learning
- arxiv url: http://arxiv.org/abs/2003.02546v3
- Date: Thu, 23 Apr 2020 06:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:00:54.353931
- Title: Embedding Expansion: Augmentation in Embedding Space for Deep Metric
Learning
- Title(参考訳): 埋め込み拡張:深層メトリック学習のための埋め込み空間の強化
- Authors: Byungsoo Ko, Geonmo Gu
- Abstract要約: 本稿では、組込み拡張と呼ばれる、ペアベースのメートル法学習損失に対する組込み空間における拡張手法を提案する。
その単純さと柔軟性のために、モデルのサイズ、トレーニング速度、最適化の難しさに影響を与えることなく、既存のメトリック学習損失に使用できる。
- 参考スコア(独自算出の注目度): 17.19890778916312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the distance metric between pairs of samples has been studied for
image retrieval and clustering. With the remarkable success of pair-based
metric learning losses, recent works have proposed the use of generated
synthetic points on metric learning losses for augmentation and generalization.
However, these methods require additional generative networks along with the
main network, which can lead to a larger model size, slower training speed, and
harder optimization. Meanwhile, post-processing techniques, such as query
expansion and database augmentation, have proposed the combination of feature
points to obtain additional semantic information. In this paper, inspired by
query expansion and database augmentation, we propose an augmentation method in
an embedding space for pair-based metric learning losses, called embedding
expansion. The proposed method generates synthetic points containing augmented
information by a combination of feature points and performs hard negative pair
mining to learn with the most informative feature representations. Because of
its simplicity and flexibility, it can be used for existing metric learning
losses without affecting model size, training speed, or optimization
difficulty. Finally, the combination of embedding expansion and representative
metric learning losses outperforms the state-of-the-art losses and previous
sample generation methods in both image retrieval and clustering tasks. The
implementation is publicly available.
- Abstract(参考訳): 画像検索とクラスタリングのために,サンプルのペア間の距離測定を学習した。
ペアベースのメトリック学習損失の顕著な成功により、近年の研究では、生成した合成点をメトリクス学習損失の強化と一般化に利用することを提案している。
しかし、これらの方法はメインネットワークと並行して追加の生成ネットワークを必要とするため、モデルサイズが大きくなり、トレーニング速度が遅くなり、最適化が難しくなる可能性がある。
一方、クエリ拡張やデータベース拡張といった後処理技術では、追加の意味情報を得るために特徴点の組み合わせを提案している。
本稿では,クエリ拡張とデータベース拡張に触発されて,組込み拡張と呼ばれる,ペアベースのメトリック学習損失に対する組込み空間における拡張手法を提案する。
提案手法は,拡張情報を含む合成点を特徴点の組み合わせで生成し,最も有意な特徴表現で学習するためにハードネガティブペアマイニングを行う。
シンプルさと柔軟性のため、モデルのサイズ、トレーニング速度、最適化の難しさに影響を与えずに、既存のメトリック学習損失に使用できる。
最後に、埋め込み拡張と代表的メトリック学習損失の組み合わせは、画像検索とクラスタリングタスクの両方において、最先端の損失と以前のサンプル生成方法を上回る。
実装は公開されている。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Dataset Distillation via Factorization [58.8114016318593]
既存のデータセット蒸留(DD)ベースラインに移植可能なプラグ・アンド・プレイ戦略であるEmphHaBaと呼ばれるEmphdataset Factorizationアプローチを導入する。
emphHaBaは、データセットをデータemphHallucinationネットワークとemphBaseの2つのコンポーネントに分解する方法を探っている。
提案手法は, 圧縮パラメータの総数を最大65%削減しつつ, 下流の分類タスクを従来に比べて大幅に改善することができる。
論文 参考訳(メタデータ) (2022-10-30T08:36:19Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Kronecker Decomposition for Knowledge Graph Embeddings [5.49810117202384]
知識グラフ埋め込みモデルにおけるパラメータ数を削減するために,Kronecker分解に基づく手法を提案する。
この分解により、3つの埋め込みベクトル間の要素的相互作用が各埋め込みベクトル内の相互作用によって拡張されることが保証される。
実験により,Kronecker分解を埋め込み行列に適用すると,全てのベンチマークデータセットのパラメータ効率が向上することが示唆された。
論文 参考訳(メタデータ) (2022-05-13T11:11:03Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Adaptive additive classification-based loss for deep metric learning [0.0]
分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
論文 参考訳(メタデータ) (2020-06-25T20:45:22Z) - Symmetrical Synthesis for Deep Metric Learning [17.19890778916312]
対称合成と呼ばれる新しい合成ハードサンプル生成法を提案する。
同じクラスから2つの元の特徴点が与えられた場合、提案手法は対称性の軸として互いに合成点を生成する。
原点および合成点内で硬い負のペアマイニングを行い、計量学習損失を計算するためのより有益な負のペアを選択する。
論文 参考訳(メタデータ) (2020-01-31T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。