論文の概要: Ranking-Based Siamese Visual Tracking
- arxiv url: http://arxiv.org/abs/2205.11761v1
- Date: Tue, 24 May 2022 03:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 14:28:35.894430
- Title: Ranking-Based Siamese Visual Tracking
- Title(参考訳): ランキングに基づくシームズビジュアルトラッキング
- Authors: Feng Tang, Qiang Ling
- Abstract要約: シームズベースのトラッカーは、主に視覚追跡を2つの独立したサブタスクに定式化し、分類とローカライゼーションを含む。
本稿では,異なる提案間の関係を探索するランキングベース最適化アルゴリズムを提案する。
提案された2つのランキングの損失は、ほとんどのシームズトラッカーと互換性があり、推論のための追加計算は発生しない。
- 参考スコア(独自算出の注目度): 31.2428211299895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Siamese-based trackers mainly formulate the visual tracking into two
independent subtasks, including classification and localization. They learn the
classification subnetwork by processing each sample separately and neglect the
relationship among positive and negative samples. Moreover, such tracking
paradigm takes only the classification confidence of proposals for the final
prediction, which may yield the misalignment between classification and
localization. To resolve these issues, this paper proposes a ranking-based
optimization algorithm to explore the relationship among different proposals.
To this end, we introduce two ranking losses, including the classification one
and the IoU-guided one, as optimization constraints. The classification ranking
loss can ensure that positive samples rank higher than hard negative ones,
i.e., distractors, so that the trackers can select the foreground samples
successfully without being fooled by the distractors. The IoU-guided ranking
loss aims to align classification confidence scores with the Intersection over
Union(IoU) of the corresponding localization prediction for positive samples,
enabling the well-localized prediction to be represented by high classification
confidence. Specifically, the proposed two ranking losses are compatible with
most Siamese trackers and incur no additional computation for inference.
Extensive experiments on seven tracking benchmarks, including OTB100, UAV123,
TC128, VOT2016, NFS30, GOT-10k and LaSOT, demonstrate the effectiveness of the
proposed ranking-based optimization algorithm. The code and raw results are
available at https://github.com/sansanfree/RBO.
- Abstract(参考訳): 現在のシームズベースのトラッカーは、主に視覚追跡を2つの独立したサブタスクに定式化し、分類とローカライゼーションを含む。
各サンプルを別々に処理して分類サブネットワークを学習し、正と負の関係を無視する。
さらに、このような追跡パラダイムは最終予測のための提案の分類信頼性のみを取り、分類とローカライゼーションのミスアライメントをもたらす可能性がある。
そこで本研究では,これらの課題を解決するために,ランクに基づく最適化アルゴリズムを提案する。
この目的のために、最適化制約として分類1とIoU誘導の2つのランキング損失を導入する。
分類ランキングの損失は、正のサンプルがハードネガティブなものよりも高いランク、すなわち、トラッカーが邪魔者によって騙されることなく、前景のサンプルをうまく選択できるようにする。
IoU-guided rank lossは、正のサンプルに対する対応ローカライゼーション予測のIoU(Intersection over Union)と分類信頼度スコアを整合させることを目的としており、その局所化予測を高い分類信頼度で表すことができる。
具体的には、提案された2つのランキングの損失は、ほとんどのシアムトラッカーと互換性があり、推論のための追加計算は発生しない。
OTB100, UAV123, TC128, VOT2016, NFS30, GOT-10k, LaSOTを含む7つの追跡ベンチマークの大規模な実験は、提案したランキングベースの最適化アルゴリズムの有効性を実証している。
コードと生の結果はhttps://github.com/sansanfree/RBOで公開されている。
関連論文リスト
- Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Revisiting AP Loss for Dense Object Detection: Adaptive Ranking Pair
Selection [19.940491797959407]
本研究では, 平均精度 (AP) の損失を再考し, その重要な要素は, 正試料と負試料のランキングペアを選択することであることを明らかにした。
本稿では,AP損失を改善するための2つの方法を提案する。第1に,APE(Adaptive Pairwise Error)損失は,正と負の両方のサンプルにおいて,ペアのランク付けに重点を置いている。
MSCOCOデータセットで行った実験は、現在の分類とランキングの損失と比較して、提案手法の優位性を実証し、分析を支援した。
論文 参考訳(メタデータ) (2022-07-25T10:33:06Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Learning Localization-aware Target Confidence for Siamese Visual
Tracking [13.684278662495204]
我々はSiamLAと呼ばれる新しい追跡パラダイムを提案する。
このパラダイムの中では、単純だが効果的なローカライゼーション対応コンポーネントがいくつか導入されている。
当社のSiamLAは精度と効率の両面で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-04-29T13:37:15Z) - Unbiased Pairwise Learning to Rank in Recommender Systems [4.058828240864671]
アルゴリズムをランク付けする偏見のない学習は、候補をアピールし、既に単一の分類ラベルを持つ多くのアプリケーションに適用されている。
本稿では,この課題に対処するための新しい非バイアス付きLTRアルゴリズムを提案する。
パブリックベンチマークデータセットと内部ライブトラフィックを用いた実験結果から,分類ラベルと連続ラベルのいずれにおいても提案手法の優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-25T06:04:59Z) - Which to Match? Selecting Consistent GT-Proposal Assignment for
Pedestrian Detection [23.92066492219922]
IoU(Universal Intersection over Union)ベースの割り当て-回帰方式は依然としてパフォーマンスを制限している。
新しい割り当てと回帰メトリックとして、1つの幾何学的敏感検索アルゴリズムを紹介します。
具体的には、MR-FPPIをR$_75$で8.8%向上させます。
論文 参考訳(メタデータ) (2021-03-18T08:54:51Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - CRACT: Cascaded Regression-Align-Classification for Robust Visual
Tracking [97.84109669027225]
改良された提案改良モジュールCascaded Regression-Align- Classification (CRAC)を導入する。
CRACは多くのベンチマークで最先端のパフォーマンスを得る。
OTB-2015、UAV123、NfS、VOT-2018、TrackingNet、GOT-10k、LaSOTを含む7つのベンチマークの実験において、我々のCRACTは最先端の競合他社と比較して非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-11-25T02:18:33Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。