論文の概要: Supervised Metric Learning to Rank for Retrieval via Contextual
Similarity Optimization
- arxiv url: http://arxiv.org/abs/2210.01908v3
- Date: Fri, 2 Jun 2023 15:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 20:59:37.580788
- Title: Supervised Metric Learning to Rank for Retrieval via Contextual
Similarity Optimization
- Title(参考訳): 文脈類似度最適化による検索用メトリクス学習のランク付け
- Authors: Christopher Liao, Theodoros Tsiligkaridis, Brian Kulis
- Abstract要約: 多くのメートル法学習損失関数は、トレーニングサンプルの正しいランキングを学習することに重点を置いているが、意味的に一貫性のないラベルに強く適合している。
本稿では,コサイン類似性に加えて文脈類似性を最適化する,文脈損失と呼ばれる新しい計量学習手法を提案する。
実験により、提案した損失は騒音のラベル付けに頑健であり、列車データの大部分が保持されていない場合でも過度に適合する傾向が低いことを示す。
- 参考スコア(独自算出の注目度): 16.14184145802016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is extensive interest in metric learning methods for image retrieval.
Many metric learning loss functions focus on learning a correct ranking of
training samples, but strongly overfit semantically inconsistent labels and
require a large amount of data. To address these shortcomings, we propose a new
metric learning method, called contextual loss, which optimizes contextual
similarity in addition to cosine similarity. Our contextual loss implicitly
enforces semantic consistency among neighbors while converging to the correct
ranking. We empirically show that the proposed loss is more robust to label
noise, and is less prone to overfitting even when a large portion of train data
is withheld. Extensive experiments demonstrate that our method achieves a new
state-of-the-art across four image retrieval benchmarks and multiple different
evaluation settings. Code is available at:
https://github.com/Chris210634/metric-learning-using-contextual-similarity
- Abstract(参考訳): 画像検索のための計量学習手法には幅広い関心がある。
多くのメートル法学習損失関数は、トレーニングサンプルの正しいランク付けを学ぶことに集中するが、意味的に一貫性のないラベルに強く適合し、大量のデータを必要とする。
これらの欠点に対処するために,コサイン類似性に加えて文脈類似性を最適化する文脈損失という新しいメトリクス学習手法を提案する。
我々の文脈的損失は、正しいランキングに収束しながら隣人の意味的一貫性を暗黙的に強制する。
その結果,提案する損失はラベルノイズに対してより頑健であり,列車データの大部分が保持されていない場合でも過度に適合しにくいことがわかった。
大規模な実験により,4つの画像検索ベンチマークと複数の異なる評価設定にまたがる新しい最先端の手法が得られた。
https://github.com/Chris210634/metric-learning-using-contextual-similarity
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Adaptive additive classification-based loss for deep metric learning [0.0]
分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
論文 参考訳(メタデータ) (2020-06-25T20:45:22Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z) - Circle Loss: A Unified Perspective of Pair Similarity Optimization [42.33948436767691]
3重項の損失とソフトマックスとクロスエントロピーの損失を含む、ほとんどの損失関数が見つかる。
円の損失はより明確な収束目標に対してより柔軟な最適化アプローチを提供することを示す。
論文 参考訳(メタデータ) (2020-02-25T13:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。