論文の概要: Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval
- arxiv url: http://arxiv.org/abs/2007.12163v2
- Date: Tue, 8 Sep 2020 18:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:59:19.444390
- Title: Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval
- Title(参考訳): Smooth-AP:大規模画像検索への道の平滑化
- Authors: Andrew Brown, Weidi Xie, Vicky Kalogeiton, Andrew Zisserman
- Abstract要約: Smooth-APは、ディープネットワークのエンドツーエンドトレーニングを可能にする、プラグアンドプレイの客観的機能である。
我々はSmooth-APをStanford Online製品とVabyIDの標準ベンチマークに適用する。
Inaturalist for fine-fine category search, VGGFace2 and IJB-C for face search。
- 参考スコア(独自算出の注目度): 94.73459295405507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimising a ranking-based metric, such as Average Precision (AP), is
notoriously challenging due to the fact that it is non-differentiable, and
hence cannot be optimised directly using gradient-descent methods. To this end,
we introduce an objective that optimises instead a smoothed approximation of
AP, coined Smooth-AP. Smooth-AP is a plug-and-play objective function that
allows for end-to-end training of deep networks with a simple and elegant
implementation. We also present an analysis for why directly optimising the
ranking based metric of AP offers benefits over other deep metric learning
losses. We apply Smooth-AP to standard retrieval benchmarks: Stanford Online
products and VehicleID, and also evaluate on larger-scale datasets: INaturalist
for fine-grained category retrieval, and VGGFace2 and IJB-C for face retrieval.
In all cases, we improve the performance over the state-of-the-art, especially
for larger-scale datasets, thus demonstrating the effectiveness and scalability
of Smooth-AP to real-world scenarios.
- Abstract(参考訳): 平均精度(Average Precision, AAP)のようなランクベースの計量を最適化することは、それが微分不可能であるという事実から、非常に難しいことで知られている。
そこで本研究では,Smooth-APと呼ばれるAPのスムーズな近似を最適化する手法を提案する。
Smooth-APは、シンプルでエレガントな実装でディープネットワークのエンドツーエンドのトレーニングを可能にする、プラグアンドプレイの客観的機能である。
また, apのランキング基準を直接最適化することで, 他の深層学習損失よりもメリットが得られる理由について分析する。
我々はsmooth-apを標準検索ベンチマーク(スタンフォードオンライン製品と vehicleid)に適用し、さらに大規模データセット(細粒度カテゴリ検索のinaturalist、顔検索のvggface2とijb-c)を評価した。
いずれの場合も、最先端、特に大規模データセットのパフォーマンスを改善し、実世界のシナリオに対するSmooth-APの有効性とスケーラビリティを実証する。
関連論文リスト
- Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [56.24431208419858]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Revisiting AP Loss for Dense Object Detection: Adaptive Ranking Pair
Selection [19.940491797959407]
本研究では, 平均精度 (AP) の損失を再考し, その重要な要素は, 正試料と負試料のランキングペアを選択することであることを明らかにした。
本稿では,AP損失を改善するための2つの方法を提案する。第1に,APE(Adaptive Pairwise Error)損失は,正と負の両方のサンプルにおいて,ペアのランク付けに重点を置いている。
MSCOCOデータセットで行った実験は、現在の分類とランキングの損失と比較して、提案手法の優位性を実証し、分析を支援した。
論文 参考訳(メタデータ) (2022-07-25T10:33:06Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Robust and Decomposable Average Precision for Image Retrieval [0.0]
画像検索において、標準的な評価基準はスコアランキング(例えば平均精度(AP))に依存している。
本稿では,ロバストで分解可能な平均精度(ROADMAP)を提案する。
我々は、APを用いたディープニューラルネットワークのエンドツーエンドトレーニングにおいて、非微分可能性と非分解性という2つの大きな課題に対処する。
論文 参考訳(メタデータ) (2021-10-01T12:00:43Z) - Stochastic Optimization of Areas Under Precision-Recall Curves with
Provable Convergence [66.83161885378192]
ROC(AUROC)と精度リコール曲線(AUPRC)の下の領域は、不均衡問題に対する分類性能を評価するための一般的な指標である。
本稿では,深層学習のためのAUPRCの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。