論文の概要: Supervised Metric Learning for Retrieval via Contextual Similarity
Optimization
- arxiv url: http://arxiv.org/abs/2210.01908v1
- Date: Tue, 4 Oct 2022 21:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:26:35.620399
- Title: Supervised Metric Learning for Retrieval via Contextual Similarity
Optimization
- Title(参考訳): 文脈類似性最適化による検索のための教師付きメトリック学習
- Authors: Christopher Liao, Theodoros Tsiligkaridis, Brian Kulis
- Abstract要約: 既存のメトリクス学習アプローチは、コントラスト学習、平均精度(AP)、深度、分類の3つのカテゴリに分類される。
本稿では,教師なしメトリック学習の研究に触発された,新しい代替手法である強調文類似性最適化を提案する。
我々は、文脈的類似性を明示的に最適化するために、非微分可能性を回避する方法を示し、さらに適切な類似性正規化を取り入れて、新しいメートル法学習損失を発生させる。
- 参考スコア(独自算出の注目度): 16.14184145802016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing deep metric learning approaches fall into three general categories:
contrastive learning, average precision (AP) maximization, and classification.
We propose a novel alternative approach, \emph{contextual similarity
optimization}, inspired by work in unsupervised metric learning. Contextual
similarity is a discrete similarity measure based on relationships between
neighborhood sets, and is widely used in the unsupervised setting as
pseudo-supervision. Inspired by this success, we propose a framework which
optimizes \emph{a combination of contextual and cosine similarities}.
Contextual similarity calculation involves several non-differentiable
operations, including the heaviside function and intersection of sets. We show
how to circumvent non-differentiability to explicitly optimize contextual
similarity, and we further incorporate appropriate similarity regularization to
yield our novel metric learning loss. The resulting loss function achieves
state-of-the-art Recall @ 1 accuracy on standard supervised image retrieval
benchmarks when combined with the standard contrastive loss. Code is released
here:
\url{https://github.com/Chris210634/metric-learning-using-contextual-similarity}
- Abstract(参考訳): 既存のメトリクス学習アプローチは、コントラスト学習、平均精度(AP)最大化、分類の3つの一般的なカテゴリに分類される。
本稿では、教師なしメトリック学習の研究に触発された新しい代替手法である「emph{contextual similarity Optimization」を提案する。
文脈的類似性は、近傍集合間の関係に基づく離散的類似性測度であり、教師なし設定において擬似スーパービジョンとして広く使われている。
この成功に触発されて、コンテキストとコサインの類似点の組み合わせを最適化するフレームワークを提案する。
文脈的類似性計算は、ヘビーサイド関数や集合の交叉を含むいくつかの非微分演算を含む。
文脈的類似性を明示的に最適化するために非微分可能性を回避する方法を示し、さらに、新しいメトリック学習損失を得るための適切な類似性規則化を組み込む。
その結果得られた損失関数は、標準的なコントラスト損失と組み合わせると、標準的な教師付き画像検索ベンチマークで最先端のリコール@1精度を達成する。
コードはここでリリースされる。 \url{https://github.com/chris210634/metric-learning-using-contextual- similarity}
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Adaptive additive classification-based loss for deep metric learning [0.0]
分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
論文 参考訳(メタデータ) (2020-06-25T20:45:22Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z) - Circle Loss: A Unified Perspective of Pair Similarity Optimization [42.33948436767691]
3重項の損失とソフトマックスとクロスエントロピーの損失を含む、ほとんどの損失関数が見つかる。
円の損失はより明確な収束目標に対してより柔軟な最適化アプローチを提供することを示す。
論文 参考訳(メタデータ) (2020-02-25T13:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。