論文の概要: A Ranking-based, Balanced Loss Function Unifying Classification and
Localisation in Object Detection
- arxiv url: http://arxiv.org/abs/2009.13592v4
- Date: Thu, 7 Jan 2021 08:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:16:49.291958
- Title: A Ranking-based, Balanced Loss Function Unifying Classification and
Localisation in Object Detection
- Title(参考訳): オブジェクト検出における分類と位置を統一したランク付け型平衡損失関数
- Authors: Kemal Oksuz and Baris Can Cam and Emre Akbas and Sinan Kalkan
- Abstract要約: オブジェクト検出のための平均局所化-リコール-精度(aLRP)を提案する。
ALRPは、分類タスクとローカライゼーションタスクの両方を対象としたランキングベースの損失関数である。
COCOデータセットでは、aLRP Lossはテスト時間を増やすことなく48.9ドルのAPを達成し、全ての1段検出器を上回っている。
- 参考スコア(独自算出の注目度): 21.34962535321344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose average Localisation-Recall-Precision (aLRP), a unified, bounded,
balanced and ranking-based loss function for both classification and
localisation tasks in object detection. aLRP extends the
Localisation-Recall-Precision (LRP) performance metric (Oksuz et al., 2018)
inspired from how Average Precision (AP) Loss extends precision to a
ranking-based loss function for classification (Chen et al., 2020). aLRP has
the following distinct advantages: (i) aLRP is the first ranking-based loss
function for both classification and localisation tasks. (ii) Thanks to using
ranking for both tasks, aLRP naturally enforces high-quality localisation for
high-precision classification. (iii) aLRP provides provable balance between
positives and negatives. (iv) Compared to on average $\sim$6 hyperparameters in
the loss functions of state-of-the-art detectors, aLRP Loss has only one
hyperparameter, which we did not tune in practice. On the COCO dataset, aLRP
Loss improves its ranking-based predecessor, AP Loss, up to around $5$ AP
points, achieves $48.9$ AP without test time augmentation and outperforms all
one-stage detectors. Code available at: https://github.com/kemaloksuz/aLRPLoss .
- Abstract(参考訳): 本稿では,オブジェクト検出における分類と局所化タスクの両方において,統一的,境界的,均衡的,ランキングに基づく損失関数であるalrpを提案する。
aLRPは、Average Precision (AP) LossにインスパイアされたLocalisation-Recall-Precision (LRP)パフォーマンスメトリック(Oksuz et al., 2018)を、分類のためのランキングベースの損失関数(Chen et al., 2020)に拡張する。
aLRPには以下の明確な利点がある。
(i)alrpは分類と局所化タスクの両方において最初のランキングに基づく損失関数である。
(II)両タスクのランク付けにより,aLRPは自然に高精度分類のための高品質なローカライゼーションを強制する。
(iii)alrpは正と負のバランスを立証できる。
(4) 最先端検出器の損失関数における平均$\sim$6ハイパーパラメータと比較して、aLRPロスは1つのハイパーパラメータしか持たない。
COCOデータセットでは、aLRP Lossはランキングベースの前任者AP Lossを5ドルAPポイントまで改善し、テスト時間を増やすことなく48.9ドルAPを達成し、全1ステージ検出器を上回っている。
コードはhttps://github.com/kemaloksuz/alrploss。
関連論文リスト
- A Self-boosted Framework for Calibrated Ranking [7.4291851609176645]
キャリブレーションランキング(Calibrated Ranking)は、正確なランキング品質とキャリブレーションされた確率予測を同時に追求するスケールキャリブレーションランキングシステムである。
それまでの方法は、ランキングの損失を計算するために、単一のミニバッチ内に完全な候補リストを集約する必要があった。
校正ランク付けのための自己ブーストフレームワーク(SBCR)を提案する。
論文 参考訳(メタデータ) (2024-06-12T09:00:49Z) - PRILoRA: Pruned and Rank-Increasing Low-Rank Adaptation [65.268245109828]
我々はPRILoRAを導入し、各層ごとに異なるランクを線形に割り当て、トレーニングプロセスを通してプルーニングを行う。
8つのGLUEベンチマークで広範な実験を行い,PRILoRAの有効性を検証する。
論文 参考訳(メタデータ) (2024-01-20T20:25:17Z) - Revisiting AP Loss for Dense Object Detection: Adaptive Ranking Pair
Selection [19.940491797959407]
本研究では, 平均精度 (AP) の損失を再考し, その重要な要素は, 正試料と負試料のランキングペアを選択することであることを明らかにした。
本稿では,AP損失を改善するための2つの方法を提案する。第1に,APE(Adaptive Pairwise Error)損失は,正と負の両方のサンプルにおいて,ペアのランク付けに重点を置いている。
MSCOCOデータセットで行った実験は、現在の分類とランキングの損失と比較して、提案手法の優位性を実証し、分析を支援した。
論文 参考訳(メタデータ) (2022-07-25T10:33:06Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Searching Parameterized AP Loss for Object Detection [36.3603004789312]
ロス関数はディープネットワークベースの物体検出器の訓練において重要な役割を果たす。
AP計量の微分不可能な性質のため、従来の物体検出器は2つのサブタスクに対して別々の微分可能な損失を課す。
そこで,パラメータ化関数を導入して,AP計算における非微分可能成分を代用するパラメータ化APロスを提案する。
論文 参考訳(メタデータ) (2021-12-09T18:59:54Z) - Rank & Sort Loss for Object Detection and Instance Segmentation [20.653774383606557]
我々は、深層物体検出とインスタンス分割を訓練するためのランキングに基づく損失関数として、Rand & Sort (RS) Lossを提案する。
RS損失を用いて、学習率を調整して7つの多様な視覚検出器を訓練し、ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2021-07-24T18:44:44Z) - Evaluating Large-Vocabulary Object Detectors: The Devil is in the
Details [107.2722027807328]
我々は、APのデフォルト実装はカテゴリー独立ではなく、適切に校正された検出器を直接報酬するものではないことを発見した。
既定の実装ではゲーム可能なメトリックが生成され、単純で非合理的な再ランクポリシーがAPを大きなマージンで改善できることが示される。
我々は,近年の大規模語彙検出の進歩をベンチマークし,新たなクラスごとの独立性評価において,多くの報告された利益が改善に結びついていないことを発見した。
論文 参考訳(メタデータ) (2021-02-01T18:56:02Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z) - Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval [94.73459295405507]
Smooth-APは、ディープネットワークのエンドツーエンドトレーニングを可能にする、プラグアンドプレイの客観的機能である。
我々はSmooth-APをStanford Online製品とVabyIDの標準ベンチマークに適用する。
Inaturalist for fine-fine category search, VGGFace2 and IJB-C for face search。
論文 参考訳(メタデータ) (2020-07-23T17:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。