論文の概要: Global-Supervised Contrastive Loss and View-Aware-Based Post-Processing
for Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2204.07943v1
- Date: Sun, 17 Apr 2022 06:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 15:11:06.742104
- Title: Global-Supervised Contrastive Loss and View-Aware-Based Post-Processing
for Vehicle Re-Identification
- Title(参考訳): 車両再識別のためのグローバル教師付きコントラスト損失とビューアウェア・ポストプロセッシング
- Authors: Zhijun Hu and Yong Xu and Jie Wen and Xianjing Cheng and Zaijun Zhang
and Lilei Sun and Yaowei Wang
- Abstract要約: 本稿では,車両再識別分野におけるグローバル・スーパービジョン・コントラッシブ・ロスとビュー・アウェア・ベースのポストプロセッシング(VABPP)手法を提案する。
VABPP法は,車両再識別分野における後処理手法としてビューアウェア方式を用いた最初の手法である。
- 参考スコア(独自算出の注目度): 26.46007637487261
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose a Global-Supervised Contrastive loss and a
view-aware-based post-processing (VABPP) method for the field of vehicle
re-identification. The traditional supervised contrastive loss calculates the
distances of features within the batch, so it has the local attribute. While
the proposed Global-Supervised Contrastive loss has new properties and has good
global attributes, the positive and negative features of each anchor in the
training process come from the entire training set. The proposed VABPP method
is the first time that the view-aware-based method is used as a post-processing
method in the field of vehicle re-identification. The advantages of VABPP are
that, first, it is only used during testing and does not affect the training
process. Second, as a post-processing method, it can be easily integrated into
other trained re-id models. We directly apply the view-pair distance scaling
coefficient matrix calculated by the model trained in this paper to another
trained re-id model, and the VABPP method greatly improves its performance,
which verifies the feasibility of the VABPP method.
- Abstract(参考訳): 本稿では,車両再識別分野におけるグローバル・スーパービジョン・コントラスト損失とビュー・アウェア・ベースのポストプロセッシング(VABPP)手法を提案する。
従来の教師付きコントラスト損失はバッチ内の特徴の距離を計算するため、局所的な属性を持つ。
提案されたグローバル教師付きコントラスト損失は新しい特性を持ち、優れたグローバル属性を持つが、トレーニングプロセスにおける各アンカーの正と負の特徴はトレーニングセット全体から得られる。
VABPP法は,車両再識別分野における後処理手法としてビューアウェア方式を用いた最初の手法である。
VABPPの利点は、第一に、テスト時にのみ使用され、トレーニングプロセスに影響を与えないことである。
第二に、後処理として、他のトレーニング済みのre-idモデルに簡単に統合できる。
本稿では,本論文でトレーニングしたモデルにより算出されたビューペア距離スケーリング係数行列を他のトレーニング済みのre-idモデルに直接適用し,VABPP法の性能を大幅に向上させ,VABPP法の有効性を検証した。
関連論文リスト
- ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Unsupervised Video Summarization via Iterative Training and Simplified GAN [12.32122301626006]
本稿では, 生成的対角ネットワークのアイデアを用いた, 教師なしの映像要約手法を提案する。
また、複数回の繰り返しに対して、再構成器とフレームセレクタを交互に訓練することにより、反復的トレーニング戦略を適用する。
論文 参考訳(メタデータ) (2023-11-07T06:01:56Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Approximated Prompt Tuning for Vision-Language Pre-trained Models [54.326232586461614]
視覚言語による事前学習モデルでは、事前学習タスクと下流タスクのギャップを埋めるために、しばしば多くの学習可能なトークンを必要とする。
本稿では,効率的なVL転送学習を実現するために,APT(Approximated Prompt Tuning)アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-27T05:43:47Z) - Model Predictive Control with Self-supervised Representation Learning [13.225264876433528]
本稿では,TD-MPCフレームワーク内での再構成機能の利用を提案する。
提案した損失項の追加は、状態ベースタスクと画像ベースタスクの両方のパフォーマンス改善につながる。
論文 参考訳(メタデータ) (2023-04-14T16:02:04Z) - Value-Consistent Representation Learning for Data-Efficient
Reinforcement Learning [105.70602423944148]
本稿では,意思決定に直接関連のある表現を学習するための,VCR(Value-Consistent Expression Learning)という新しい手法を提案する。
この想像された状態と環境によって返される実状態とを一致させる代わりに、VCRは両方の状態に$Q$-valueヘッドを適用し、2つのアクション値の分布を得る。
検索不要なRLアルゴリズムに対して,提案手法が新たな最先端性能を実現することが実証された。
論文 参考訳(メタデータ) (2022-06-25T03:02:25Z) - Reinforcement Learning in the Wild: Scalable RL Dispatching Algorithm
Deployed in Ridehailing Marketplace [12.298997392937876]
本研究では,強化学習に基づくリアルタイムディスパッチアルゴリズムを提案する。
ディディのA/Bテストの運営下にある複数の都市でオンラインに展開され、主要な国際市場の一つで展開されている。
デプロイされたアルゴリズムは、A/Bテストによるドライバーの総収入を1.3%以上改善している。
論文 参考訳(メタデータ) (2022-02-10T16:07:17Z) - Robust and Accurate Object Detection via Self-Knowledge Distillation [9.508466066051572]
Unified Decoupled Feature Alignment (UDFA)は、既存のメソッドよりも優れたパフォーマンスを実現する新しい微調整パラダイムである。
UDFAは、対象検出のための標準的な訓練方法や最先端の訓練方法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T04:40:15Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。