論文の概要: Optimization of Rank Losses for Image Retrieval
- arxiv url: http://arxiv.org/abs/2309.08250v1
- Date: Fri, 15 Sep 2023 08:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:24:48.348457
- Title: Optimization of Rank Losses for Image Retrieval
- Title(参考訳): 画像検索のためのランク損失の最適化
- Authors: Elias Ramzi, Nicolas Audebert, Cl\'ement Rambour, Andr\'e Araujo,
Xavier Bitot, Nicolas Thome
- Abstract要約: 我々は、堅牢で分解可能なランク損失最適化のための一般的なフレームワークを導入する。
非微分可能性(non-differentiability)と非分解性(non-decomposability)の2つの大きな課題に対処する。
最初の階層的ランドマーク検索データセットを作成します。
- 参考スコア(独自算出の注目度): 19.813887015431558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In image retrieval, standard evaluation metrics rely on score ranking, \eg
average precision (AP), recall at k (R@k), normalized discounted cumulative
gain (NDCG). In this work we introduce a general framework for robust and
decomposable rank losses optimization. It addresses two major challenges for
end-to-end training of deep neural networks with rank losses:
non-differentiability and non-decomposability. Firstly we propose a general
surrogate for ranking operator, SupRank, that is amenable to stochastic
gradient descent. It provides an upperbound for rank losses and ensures robust
training. Secondly, we use a simple yet effective loss function to reduce the
decomposability gap between the averaged batch approximation of ranking losses
and their values on the whole training set. We apply our framework to two
standard metrics for image retrieval: AP and R@k. Additionally we apply our
framework to hierarchical image retrieval. We introduce an extension of AP, the
hierarchical average precision $\mathcal{H}$-AP, and optimize it as well as the
NDCG. Finally we create the first hierarchical landmarks retrieval dataset. We
use a semi-automatic pipeline to create hierarchical labels, extending the
large scale Google Landmarks v2 dataset. The hierarchical dataset is publicly
available at https://github.com/cvdfoundation/google-landmark. Code will be
released at https://github.com/elias-ramzi/SupRank.
- Abstract(参考訳): 画像検索において、標準評価指標はスコアランキング、平均精度(ap)、kでのリコール(r@k)、正規化ディスカウント累積ゲイン(ndcg)に依存する。
本研究では、ロバストで分解可能なランク損失最適化のための一般的なフレームワークを紹介する。
ディープニューラルネットワークのエンドツーエンドトレーニングにおいて、ランクロスを伴う2つの大きな課題に対処している。
まず、階数演算子 SupRank に対して、確率的勾配降下に順応可能な一般代名詞を提案する。
階級の損失に上限を与え、堅実な訓練を確実にする。
第2に,単純な有効損失関数を用いて,学習セット全体のランキング損失の平均バッチ近似値とそれらの値との非可逆性ギャップを低減する。
我々は、画像検索のための2つの標準指標、APとR@kに適用する。
さらに,このフレームワークを階層的画像検索に適用する。
我々は,階層的平均精度$\mathcal{H}$-APであるAPの拡張を導入し,NDCGと同様に最適化する。
最後に、最初の階層的ランドマーク検索データセットを作成する。
半自動パイプラインを使用して階層ラベルを作成し、大規模なGoogle Landmarks v2データセットを拡張しています。
階層データセットはhttps://github.com/cvdfoundation/google-landmarkで公開されている。
コードはhttps://github.com/elias-ramzi/suprankでリリースされる。
関連論文リスト
- RankUp: Boosting Semi-Supervised Regression with an Auxiliary Ranking Classifier [21.37308028303897]
最新技術(SOTA)の半教師付き学習技術であるFixMatchやその変種は、分類タスクにおいて印象的なパフォーマンスを示している。
本稿では,既存の半教師付き分類手法を応用し,回帰タスクの性能を向上させるための簡易かつ効果的なアプローチであるRangeUpを提案する。
論文 参考訳(メタデータ) (2024-10-29T15:25:21Z) - Bucketed Ranking-based Losses for Efficient Training of Object Detectors [21.261662785846056]
Average Precision Loss や Rank&Sort Loss のようなランクに基づく損失関数は、オブジェクト検出においてスコアベースの損失よりも優れていた。
これらは、$P$陽性と$N$負の予測のペアワイズ比較を必要とし、$mathcalO(PN)$の時間複雑性を導入する。
負の予測をB$バケット(B ll N$)にグループ化し、ペア比較の回数を減らす。
我々の手法は時間の複雑さを増し、$mathcalO(max)に還元する。
論文 参考訳(メタデータ) (2024-07-19T11:01:30Z) - Towards Higher Ranks via Adversarial Weight Pruning [34.602137305496335]
逆方向のスパース重みのランクを維持するために,ランクベースのPruninG(RPG)手法を提案する。
RPGは、ResNet-50のImageNetで1.13%の精度で最先端のパフォーマンスを98%で上回っている。
論文 参考訳(メタデータ) (2023-11-29T10:04:39Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Hierarchical Average Precision Training for Pertinent Image Retrieval [0.0]
本稿では,HAP-PIER (Pertinent Image Search) のための階層型APトレーニング手法を提案する。
HAP-PIERは、エラーの重要性とランキングのより良い評価を統合する新しいH-APメトリックに基づいている。
6つのデータセットの実験により、HAPPIERは階層的検索において最先端の手法を大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2022-07-05T07:55:18Z) - Planning and Learning with Adaptive Lookahead [74.39132848733847]
ポリシーイテレーション(PI)アルゴリズムは、欲求の一段階の改善と政策評価を交互に行う。
近年の文献では、複数段階のルックアヘッドポリシーの改善が、イテレーション毎の複雑さの増加を犠牲にして、よりコンバージェンス率の向上につながることが示されている。
本研究では,多段階の地平線を状態と推定値の関数として動的に適応する手法を初めて提案する。
論文 参考訳(メタデータ) (2022-01-28T20:26:55Z) - Understanding Image Retrieval Re-Ranking: A Graph Neural Network
Perspective [52.96911968968888]
本稿では,GNN(High-parallelism Graph Neural Network)関数として再ランク化が可能であることを示す。
market-1501データセットでは、1k40m gpuで89.2sから9.4msへのリランキング処理を高速化し、リアルタイムのポストプロセッシングを容易にする。
論文 参考訳(メタデータ) (2020-12-14T15:12:36Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval [94.73459295405507]
Smooth-APは、ディープネットワークのエンドツーエンドトレーニングを可能にする、プラグアンドプレイの客観的機能である。
我々はSmooth-APをStanford Online製品とVabyIDの標準ベンチマークに適用する。
Inaturalist for fine-fine category search, VGGFace2 and IJB-C for face search。
論文 参考訳(メタデータ) (2020-07-23T17:52:03Z) - Two-stage Discriminative Re-ranking for Large-scale Landmark Retrieval [24.630337893857]
大規模ランドマーク画像検索のための効率的なパイプラインを提案する。
我々のアプローチは、コサインソフトマックスロスで訓練された畳み込みニューラルネットワークを用いて、特徴空間に画像を埋め込むことに基づいている。
私たちの方法では、Google Landmark Retrieval 2019チャレンジで1位、KaggleでのGoogle Landmark Recognition 2019チャレンジで3位を獲得しました。
論文 参考訳(メタデータ) (2020-03-25T04:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。