論文の概要: Sharing Matters for Generalization in Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2004.05582v3
- Date: Thu, 9 Sep 2021 08:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:33:13.281106
- Title: Sharing Matters for Generalization in Deep Metric Learning
- Title(参考訳): Deep Metric Learningにおける一般化のための共有事項
- Authors: Timo Milbich and Karsten Roth and Biagio Brattoli and Bj\"orn Ommer
- Abstract要約: 本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
- 参考スコア(独自算出の注目度): 22.243744691711452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the similarity between images constitutes the foundation for
numerous vision tasks. The common paradigm is discriminative metric learning,
which seeks an embedding that separates different training classes. However,
the main challenge is to learn a metric that not only generalizes from training
to novel, but related, test samples. It should also transfer to different
object classes. So what complementary information is missed by the
discriminative paradigm? Besides finding characteristics that separate between
classes, we also need them to likely occur in novel categories, which is
indicated if they are shared across training classes. This work investigates
how to learn such characteristics without the need for extra annotations or
training data. By formulating our approach as a novel triplet sampling
strategy, it can be easily applied on top of recent ranking loss frameworks.
Experiments show that, independent of the underlying network architecture and
the specific ranking loss, our approach significantly improves performance in
deep metric learning, leading to new the state-of-the-art results on various
standard benchmark datasets. Preliminary early access page can be found here:
https://ieeexplore.ieee.org/document/9141449
- Abstract(参考訳): 画像間の類似性を学ぶことは、多くの視覚タスクの基礎となる。
一般的なパラダイムは差別的メトリック学習であり、異なるトレーニングクラスを分離した埋め込みを求める。
しかし、主な課題は、トレーニングから新しい、あるいは関連するテストサンプルまで一般化したメトリクスを学ぶことである。
また、異なるオブジェクトクラスに転送する必要がある。
では、差別的パラダイムが見逃している補完的な情報は何か?
クラスごとに異なる特徴を見つけるだけでなく、トレーニングクラス間で共有されている場合を示す、新しいカテゴリで発生する可能性が高いことも必要です。
本研究は,追加のアノテーションやトレーニングデータを必要としない特徴の学習方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
実験により,基礎となるネットワークアーキテクチャと特定のランキング損失とは独立に,本手法はディープメトリック学習の性能を著しく向上させ,各種標準ベンチマークデータセットの最先端結果に繋がることがわかった。
予備のアーリーアクセスページは以下の通りである。
関連論文リスト
- Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - How does the degree of novelty impacts semi-supervised representation
learning for novel class retrieval? [0.5672132510411463]
ディープネットワークによる教師付き表現学習は、トレーニングクラスに過度に適合する傾向がある。
本稿では,新しい授業の新規性の度合いを変化させる独自の評価手法を提案する。
セマンティクスのギャップが大きくなると,バニラの教師付き表現はより新しいクラスを検索するのに不足することがわかった。
論文 参考訳(メタデータ) (2022-08-17T10:49:10Z) - Weak Novel Categories without Tears: A Survey on Weak-Shot Learning [10.668094663201385]
あらゆるカテゴリについて、十分な完全な注釈付きトレーニングデータを集めるのに、時間と労力がかかります。
弱いショット学習は、補助的な完全教師付きカテゴリーによる弱い教師付き学習として扱われる。
論文 参考訳(メタデータ) (2021-10-06T11:04:36Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Towards A Category-extended Object Detector without Relabeling or
Conflicts [40.714221493482974]
本稿では,手作業を必要とせずに,限られたデータセットに基づいてすべてのカテゴリを処理可能な,強力な統一型検出器の傾きを目標とする。
提案手法は, 基礎モデルの改善, 未ラベルの地中埋立処分戦略の改善, 疑似アノテーションによる再訓練手法の3つの側面に着目した実践的枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-28T06:44:53Z) - Dataset Bias in Few-shot Image Recognition [57.25445414402398]
まず,基本カテゴリから学習した伝達可能能力の影響について検討する。
第2に、データセット構造と異なる少数ショット学習方法から、異なるデータセットのパフォーマンス差について検討する。
論文 参考訳(メタデータ) (2020-08-18T14:46:23Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z) - Towards Universal Representation Learning for Deep Face Recognition [106.21744671876704]
対象のドメイン知識を活用せずに、与えられたトレーニングデータに見つからない大きな変化に対処できる普遍的な表現学習フレームワークを提案する。
実験により,LFW や MegaFace などの一般的な顔認識データセットにおいて,本手法が最高性能を実現することを示す。
論文 参考訳(メタデータ) (2020-02-26T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。