論文の概要: Rank & Sort Loss for Object Detection and Instance Segmentation
- arxiv url: http://arxiv.org/abs/2107.11669v1
- Date: Sat, 24 Jul 2021 18:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 04:13:44.046093
- Title: Rank & Sort Loss for Object Detection and Instance Segmentation
- Title(参考訳): オブジェクト検出とインスタンス分割のためのランクとソート損失
- Authors: Kemal Oksuz and Baris Can Cam and Emre Akbas and Sinan Kalkan
- Abstract要約: 我々は、深層物体検出とインスタンス分割を訓練するためのランキングに基づく損失関数として、Rand & Sort (RS) Lossを提案する。
RS損失を用いて、学習率を調整して7つの多様な視覚検出器を訓練し、ベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 20.653774383606557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Rank & Sort (RS) Loss, as a ranking-based loss function to train
deep object detection and instance segmentation methods (i.e. visual
detectors). RS Loss supervises the classifier, a sub-network of these methods,
to rank each positive above all negatives as well as to sort positives among
themselves with respect to (wrt.) their continuous localisation qualities (e.g.
Intersection-over-Union - IoU). To tackle the non-differentiable nature of
ranking and sorting, we reformulate the incorporation of error-driven update
with backpropagation as Identity Update, which enables us to model our novel
sorting error among positives. With RS Loss, we significantly simplify
training: (i) Thanks to our sorting objective, the positives are prioritized by
the classifier without an additional auxiliary head (e.g. for centerness, IoU,
mask-IoU), (ii) due to its ranking-based nature, RS Loss is robust to class
imbalance, and thus, no sampling heuristic is required, and (iii) we address
the multi-task nature of visual detectors using tuning-free task-balancing
coefficients. Using RS Loss, we train seven diverse visual detectors only by
tuning the learning rate, and show that it consistently outperforms baselines:
e.g. our RS Loss improves (i) Faster R-CNN by ~ 3 box AP and aLRP Loss
(ranking-based baseline) by ~ 2 box AP on COCO dataset, (ii) Mask R-CNN with
repeat factor sampling (RFS) by 3.5 mask AP (~ 7 AP for rare classes) on LVIS
dataset; and also outperforms all counterparts. Code available at
https://github.com/kemaloksuz/RankSortLoss
- Abstract(参考訳): 我々は、深層物体検出とインスタンス分割を訓練するためのランキングに基づく損失関数として、Rand & Sort (RS) Lossを提案する。
視覚検出器)。
RSロスは、これらの手法のサブネットワークである分類器を監督し、全ての陰性に対してそれぞれ正をランク付けし、(令)に関して正をソートする。
連続的な局所化特性(例)
交点交点 - iou)。
ランク付けとソートという不可分な性質に取り組むため、エラー駆動更新の組み込みをid更新としてバックプロパゲーションで再構成し、新たなソートエラーのモデル化を可能にした。
RS損失では、トレーニングを著しく単純化する: (i) ソート目的により、プラスは追加の補助ヘッド(例)なしで分類器によって優先順位付けされる。
中心性, IoU, mask-IoU, (ii) ランクベースの性質から, RSロスはクラス不均衡に対して頑健であり, サンプリングヒューリスティックは不要であり, (iii) 無調タスクバランス係数を用いた視覚検出器のマルチタスク特性に対処する。
RS損失を用いて、学習率を調整することによってのみ7つの多様な視覚検出器を訓練し、ベースラインを一貫して上回ることを示す。
RS損失は、(i)3ボックスAPとaLRPロス(上位ベースライン)で、COCOデータセットで、~2ボックスAPで、(ii)リピートファクタサンプリング(RFS)でMask R-CNNで、LVISデータセットで、3.5マスクAP(~7APで、レアクラスで、)で改善します。
https://github.com/kemaloksuz/RankSortLossで利用可能なコード
関連論文リスト
- Bucketed Ranking-based Losses for Efficient Training of Object Detectors [21.261662785846056]
Average Precision Loss や Rank&Sort Loss のようなランクに基づく損失関数は、オブジェクト検出においてスコアベースの損失よりも優れていた。
これらは、$P$陽性と$N$負の予測のペアワイズ比較を必要とし、$mathcalO(PN)$の時間複雑性を導入する。
負の予測をB$バケット(B ll N$)にグループ化し、ペア比較の回数を減らす。
我々の手法は時間の複雑さを増し、$mathcalO(max)に還元する。
論文 参考訳(メタデータ) (2024-07-19T11:01:30Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Revisiting AP Loss for Dense Object Detection: Adaptive Ranking Pair
Selection [19.940491797959407]
本研究では, 平均精度 (AP) の損失を再考し, その重要な要素は, 正試料と負試料のランキングペアを選択することであることを明らかにした。
本稿では,AP損失を改善するための2つの方法を提案する。第1に,APE(Adaptive Pairwise Error)損失は,正と負の両方のサンプルにおいて,ペアのランク付けに重点を置いている。
MSCOCOデータセットで行った実験は、現在の分類とランキングの損失と比較して、提案手法の優位性を実証し、分析を支援した。
論文 参考訳(メタデータ) (2022-07-25T10:33:06Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Class Interference Regularization [7.248447600071719]
対照的な損失は、人物の再識別、顔認証、少人数のショットラーニングのための最先端のパフォーマンスをもたらす。
我々は,新しい,シンプルで効果的な正規化手法であるクラス干渉正規化(CIR)を提案する。
CIRは、負のクラスの平均埋め込みに向かってランダムに移動することで出力特徴を摂動する。
論文 参考訳(メタデータ) (2020-09-04T21:03:32Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。