論文の概要: Do Lessons from Metric Learning Generalize to Image-Caption Retrieval?
- arxiv url: http://arxiv.org/abs/2202.07474v1
- Date: Mon, 14 Feb 2022 15:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:27:08.344974
- Title: Do Lessons from Metric Learning Generalize to Image-Caption Retrieval?
- Title(参考訳): メトリック学習からの教訓は、イメージキャプチャー検索に一般化するか?
- Authors: Maurits Bleeker and Maarten de Rijke
- Abstract要約: 半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
- 参考スコア(独自算出の注目度): 67.45267657995748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The triplet loss with semi-hard negatives has become the de facto choice for
image-caption retrieval (ICR) methods that are optimized from scratch. Recent
progress in metric learning has given rise to new loss functions that
outperform the triplet loss on tasks such as image retrieval and representation
learning. We ask whether these findings generalize to the setting of ICR by
comparing three loss functions on two ICR methods. We answer this question
negatively: the triplet loss with semi-hard negative mining still outperforms
newly introduced loss functions from metric learning on the ICR task. To gain a
better understanding of these outcomes, we introduce an analysis method to
compare loss functions by counting how many samples contribute to the gradient
w.r.t. the query representation during optimization. We find that loss
functions that result in lower evaluation scores on the ICR task, in general,
take too many (non-informative) samples into account when computing a gradient
w.r.t. the query representation, which results in sub-optimal performance. The
triplet loss with semi-hard negatives is shown to outperform the other loss
functions, as it only takes one (hard) negative into account when computing the
gradient.
- Abstract(参考訳): 半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
メトリック学習の最近の進歩は、画像検索や表現学習といったタスクにおける三重項損失を上回る新しい損失関数を生み出した。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
半硬負のマイニングによる三重項損失は、ICCタスクにおける計量学習から新たに導入された損失関数を上回っている。
これらの結果をよりよく理解するために,最適化中のクエリ表現の勾配 w.r.t に寄与するサンプル数を数えて損失関数を比較する解析手法を提案する。
icrタスクにおける評価スコアを低下させる損失関数は、一般に、クエリ表現の勾配 w.r.t. を計算する際に、過剰な(非インフォーマティブな)サンプルを考慮に入れることで、最適化性能を低下させる。
半ハード負のトリプレット損失は、勾配を計算する際にのみ1(ハード)負の値を取るため、他の損失関数を上回ることが示されている。
関連論文リスト
- Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Tuned Contrastive Learning [77.67209954169593]
そこで本研究では,TCL(Tuned Contrastive Learning)損失という,新たなコントラスト損失関数を提案する。
TCLはバッチ内の複数の正と負に一般化し、ハードな正とハードな負の勾配応答を調整および改善するためのパラメータを提供する。
我々は、TCLを自己教師付き設定に拡張する方法を示し、それを様々なSOTA自己教師型学習手法と経験的に比較する。
論文 参考訳(メタデータ) (2023-05-18T03:26:37Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Dissecting the impact of different loss functions with gradient surgery [7.001832294837659]
ペアワイズ・ロス(英: Pair-wise Los)とは、損失関数を最適化することで意味的な埋め込みを学習するメトリクス学習のアプローチである。
ここでは、これらの損失関数の勾配を、アンカー正対とアンカー負対の相対的特徴位置の押し方に関連する成分に分解する。
論文 参考訳(メタデータ) (2022-01-27T03:55:48Z) - Class Interference Regularization [7.248447600071719]
対照的な損失は、人物の再識別、顔認証、少人数のショットラーニングのための最先端のパフォーマンスをもたらす。
我々は,新しい,シンプルで効果的な正規化手法であるクラス干渉正規化(CIR)を提案する。
CIRは、負のクラスの平均埋め込みに向かってランダムに移動することで出力特徴を摂動する。
論文 参考訳(メタデータ) (2020-09-04T21:03:32Z) - Learning Condition Invariant Features for Retrieval-Based Localization
from 1M Images [85.81073893916414]
我々は、より正確で、より一般化されたローカライゼーション特徴を学習する新しい方法を開発した。
難易度の高いオックスフォード・ロボットカーの夜間条件では、5m以内の局所化精度でよく知られた三重項損失を24.4%上回っている。
論文 参考訳(メタデータ) (2020-08-27T14:46:22Z) - A Unified Framework of Surrogate Loss by Refactoring and Interpolation [65.60014616444623]
勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
論文 参考訳(メタデータ) (2020-07-27T21:16:51Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。