論文の概要: Divide and Conquer: Hybrid Pre-training for Person Search
- arxiv url: http://arxiv.org/abs/2312.07970v1
- Date: Wed, 13 Dec 2023 08:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 16:10:35.931065
- Title: Divide and Conquer: Hybrid Pre-training for Person Search
- Title(参考訳): Divide and Conquer: 人物検索のためのハイブリッド事前学習
- Authors: Yanling Tian, Di Chen, Yunan Liu, Jian Yang, Shanshan Zhang
- Abstract要約: 本研究では,サブタスクデータのみを用いた人物検索のためのハイブリッド事前学習フレームワークを提案する。
我々のモデルは、人物探索法、微調整データ、事前学習データ、モデルバックボーンなど、多様なプロトコルで大幅に改善できる。
私たちのコードと事前訓練されたモデルは、人検索コミュニティにプラグイン・アンド・プレイの使用のためにリリースされます。
- 参考スコア(独自算出の注目度): 40.13016375392472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale pre-training has proven to be an effective method for improving
performance across different tasks. Current person search methods use ImageNet
pre-trained models for feature extraction, yet it is not an optimal solution
due to the gap between the pre-training task and person search task (as a
downstream task). Therefore, in this paper, we focus on pre-training for person
search, which involves detecting and re-identifying individuals simultaneously.
Although labeled data for person search is scarce, datasets for two sub-tasks
person detection and re-identification are relatively abundant. To this end, we
propose a hybrid pre-training framework specifically designed for person search
using sub-task data only. It consists of a hybrid learning paradigm that
handles data with different kinds of supervisions, and an intra-task alignment
module that alleviates domain discrepancy under limited resources. To the best
of our knowledge, this is the first work that investigates how to support
full-task pre-training using sub-task data. Extensive experiments demonstrate
that our pre-trained model can achieve significant improvements across diverse
protocols, such as person search method, fine-tuning data, pre-training data
and model backbone. For example, our model improves ResNet50 based NAE by 10.3%
relative improvement w.r.t. mAP. Our code and pre-trained models are released
for plug-and-play usage to the person search community.
- Abstract(参考訳): 大規模事前トレーニングは、さまざまなタスクのパフォーマンスを改善する効果的な方法であることが証明されている。
現在の人物探索法では,ImageNet事前学習モデルを用いて特徴抽出を行うが,事前学習タスクと人検索タスク(下流タスクとして)のギャップのため最適ではない。
そこで本研究では,個人を同時に検出・再識別する人探索の事前学習に焦点を当てた。
人物探索のためのラベル付きデータは少ないが、2つのサブタスクの人物検出と再識別のためのデータセットは比較的豊富である。
そこで本研究では,サブタスクデータのみを用いた人物検索のためのハイブリッド事前学習フレームワークを提案する。
それは、さまざまな種類の監視データを扱うハイブリッド学習パラダイムと、限られたリソース下でのドメインの不一致を軽減するタスク内アライメントモジュールで構成される。
我々の知る限りでは、これはサブタスクデータを使用してフルタスク事前トレーニングをサポートする方法を研究する最初の研究である。
我々の事前学習モデルは、人物探索法、微調整データ、事前学習データ、モデルバックボーンなど、多様なプロトコルで大幅に改善できることを示した。
例えば、我々のモデルはResNet50ベースのNAEを10.3%改善します。
私たちのコードと事前訓練されたモデルは、人検索コミュニティにプラグインとプレイの使用のためにリリースされます。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - A Memory-Related Multi-Task Method Based on Task-Agnostic Exploration [26.17597857264231]
模倣学習とは対照的に、専門家データはなく、環境探索を通じて収集されたデータのみである。
新しいタスクを解くためのアクションシーケンスは、複数のトレーニングタスクの軌道セグメントの組み合わせである可能性があるため、テストタスクと解決戦略は、トレーニングデータに直接存在しない。
本稿では,メモリ関連マルチタスク手法(M3)を提案する。
論文 参考訳(メタデータ) (2022-09-09T03:02:49Z) - RPT: Toward Transferable Model on Heterogeneous Researcher Data via
Pre-Training [19.987304448524043]
マルチタスク型自己教師型学習ベース研究者データ事前学習モデル RPT を提案する。
研究者のデータをセマンティックドキュメントセットとコミュニティグラフに分割する。
モデル全体を学習するための3つの自己教師型学習目標を提案する。
論文 参考訳(メタデータ) (2021-10-08T03:42:09Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。