論文の概要: DAS: Densely-Anchored Sampling for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2208.00119v1
- Date: Sat, 30 Jul 2022 02:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:41:58.198036
- Title: DAS: Densely-Anchored Sampling for Deep Metric Learning
- Title(参考訳): DAS:Deep Metric Learningのための厳密なアンコールサンプリング
- Authors: Lizhao Liu, Shangxin Huang, Zhuangwei Zhuang, Ran Yang, Mingkui Tan,
Yaowei Wang
- Abstract要約: 本研究では, アンカー近傍の埋め込み空間を利用してデータポイントのない埋め込みを密に生成するDensely-Anchored Smpling (DAS) 方式を提案する。
提案手法は既存のDMLフレームワークに統合され,ベルやホイッスルを使わずに改善されている。
- 参考スコア(独自算出の注目度): 43.81322638018864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Metric Learning (DML) serves to learn an embedding function to project
semantically similar data into nearby embedding space and plays a vital role in
many applications, such as image retrieval and face recognition. However, the
performance of DML methods often highly depends on sampling methods to choose
effective data from the embedding space in the training. In practice, the
embeddings in the embedding space are obtained by some deep models, where the
embedding space is often with barren area due to the absence of training
points, resulting in so called "missing embedding" issue. This issue may impair
the sample quality, which leads to degenerated DML performance. In this work,
we investigate how to alleviate the "missing embedding" issue to improve the
sampling quality and achieve effective DML. To this end, we propose a
Densely-Anchored Sampling (DAS) scheme that considers the embedding with
corresponding data point as "anchor" and exploits the anchor's nearby embedding
space to densely produce embeddings without data points. Specifically, we
propose to exploit the embedding space around single anchor with Discriminative
Feature Scaling (DFS) and multiple anchors with Memorized Transformation
Shifting (MTS). In this way, by combing the embeddings with and without data
points, we are able to provide more embeddings to facilitate the sampling
process thus boosting the performance of DML. Our method is effortlessly
integrated into existing DML frameworks and improves them without bells and
whistles. Extensive experiments on three benchmark datasets demonstrate the
superiority of our method.
- Abstract(参考訳): Deep Metric Learning (DML)は、セマンティックに類似したデータを近くの埋め込み空間に投影する埋め込み機能を学び、画像検索や顔認識など多くのアプリケーションにおいて重要な役割を果たす。
しかし、DML法の性能は、トレーニングにおける埋め込み空間から有効なデータを選択するサンプリング法に大きく依存することが多い。
実際には、埋め込み空間への埋め込みはいくつかの深層モデルによって得られ、そこでは、埋め込み空間はトレーニングポイントがないため不毛領域としばしば一致するため、「ミス埋め込み」問題と呼ばれる。
この問題はサンプルの品質を損なう可能性があるため、dmlのパフォーマンスが低下する。
本研究では,サンプリング品質を改善し,効果的なDMLを実現するために,ミス埋め込み問題を緩和する方法を検討する。
そこで本研究では,対応するデータポイントの埋め込みを"アンカー"として考慮し,アンカーの近傍の埋め込み空間を利用して,データポイントを使わずに密に埋め込みを生成する,密度の高いアンカーサンプリング(das)スキームを提案する。
具体的には、識別的特徴スケーリング(DFS)と記憶変換シフト(MTS)を用いた複数アンカーによる単一アンカーの埋め込み空間の活用を提案する。
このように、埋め込みをデータポイントと組み合わせることで、より多くの埋め込みを提供することで、サンプリングプロセスを容易にし、DMLの性能を高めることができます。
提案手法は既存のDMLフレームワークに統合され,ベルやホイッスルを使わずに改善されている。
3つのベンチマークデータセットに対する大規模な実験により,本手法の優位性が示された。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - TraceMesh: Scalable and Streaming Sampling for Distributed Traces [51.08892669409318]
TraceMeshは、分散トレースのためのスケーラブルでストリーミングなサンプリングツールである。
以前は見つからなかったトレース機能を、統一的で合理化された方法で扱える。
TraceMeshは、サンプリング精度と効率の両方において、最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-06-11T06:13:58Z) - Anchor-aware Deep Metric Learning for Audio-visual Retrieval [11.675472891647255]
Metric Learningは、基礎となるデータ構造を捕捉し、オーディオ・ビジュアル・クロスモーダル検索(AV-CMR)のようなタスクの性能を向上させることを目的としている。
近年の研究では、トレーニング中に埋め込み空間から影響のあるデータポイントを選択するためのサンプリング手法が採用されている。
しかし、トレーニングデータポイントの不足のため、モデルトレーニングはスペースを完全に探索することができない。
本稿では,この課題に対処するために,AADML(Anchor-aware Deep Metric Learning)手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T22:44:44Z) - ProcSim: Proxy-based Confidence for Robust Similarity Learning [0.6963971634605796]
一般的なベンチマークデータセットには多くの間違ったラベルが含まれており、DMLメソッドはそれらに影響を受けやすいことを示す。
現実的なノイズの効果を研究するために、データセット内のクラスのオントロジーを作成し、それを意味論的に一貫性のあるラベル付けミスをシミュレートする。
頑健なDMLモデルをトレーニングするために,クラス代表に対して正規化距離を用いて各サンプルに信頼スコアを割り当てるフレームワークであるProcSimを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:17:14Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - DLME: Deep Local-flatness Manifold Embedding [41.86924171938867]
深部局所平坦度マニフォールド埋め込み (DLME) は, 歪みを低減し, 信頼性の高い多様体埋め込みを実現するための新しいMLフレームワークである。
実験では, 下流分類, クラスタリング, 可視化タスクにおけるDLMEの有効性を示すことにより, DLMEがSOTA MLおよびコントラッシブラーニング(CL)法より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-07T08:46:17Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss [2.010312620798609]
MDaML (MultimoDal Aware weakly supervised Metric Learning) と呼ばれる新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
13のデータセットで実験を行い、提案したMDaMLの優位性を検証した。
論文 参考訳(メタデータ) (2021-02-03T07:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。