論文の概要: Large-scale Training Data Search for Object Re-identification
- arxiv url: http://arxiv.org/abs/2303.16186v1
- Date: Tue, 28 Mar 2023 17:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 14:04:50.364997
- Title: Large-scale Training Data Search for Object Re-identification
- Title(参考訳): 物体再識別のための大規模学習データ検索
- Authors: Yue Yao, Huan Lei, Tom Gedeon, Liang Zheng
- Abstract要約: 本稿では,このトレーニングデータ検索問題に対する探索・プルーニング(SnP)ソリューションを提案する。
具体的には、探索段階は、対象領域と類似した分布を示すソースアイデンティティのクラスタを特定し、マージする。
第2ステージは、ステージI出力からIDとその画像を選択し、その結果のトレーニングセットのサイズを制御する。
- 参考スコア(独自算出の注目度): 27.98822475755793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a scenario where we have access to the target domain, but cannot
afford on-the-fly training data annotation, and instead would like to construct
an alternative training set from a large-scale data pool such that a
competitive model can be obtained. We propose a search and pruning (SnP)
solution to this training data search problem, tailored to object
re-identification (re-ID), an application aiming to match the same object
captured by different cameras. Specifically, the search stage identifies and
merges clusters of source identities which exhibit similar distributions with
the target domain. The second stage, subject to a budget, then selects
identities and their images from the Stage I output, to control the size of the
resulting training set for efficient training. The two steps provide us with
training sets 80\% smaller than the source pool while achieving a similar or
even higher re-ID accuracy. These training sets are also shown to be superior
to a few existing search methods such as random sampling and greedy sampling
under the same budget on training data size. If we release the budget, training
sets resulting from the first stage alone allow even higher re-ID accuracy. We
provide interesting discussions on the specificity of our method to the re-ID
problem and particularly its role in bridging the re-ID domain gap. The code is
available at https://github.com/yorkeyao/SnP.
- Abstract(参考訳): 対象ドメインへのアクセスは可能だが、オンザフライのトレーニングデータアノテーションは使用できないシナリオを考えており、代わりに競合モデルが得られるような大規模データプールから代替トレーニングセットを構築したいと考えている。
本稿では,オブジェクト再識別(re-ID)に適したトレーニングデータ検索問題に対する探索・プルーニング(SnP)ソリューションを提案する。
具体的には、対象領域と類似した分布を示すソースアイデンティティのクラスタを特定し、マージする。
第2のステージは予算を課し、ステージi出力からidと画像を選択して、効率的なトレーニングのために得られたトレーニングセットのサイズを制御する。
この2つのステップは、ソースプールより80\%小さいトレーニングセットを提供し、同じかそれ以上のre-id精度を実現します。
これらのトレーニングセットは、トレーニングデータサイズにおいて、同じ予算でランダムサンプリングやグリーディサンプリングのような、いくつかの既存の検索方法よりも優れていることも示されている。
予算を公表すれば、第1段階のみのトレーニングセットによって、さらに高い再ID精度が実現できます。
我々は、re-ID問題に対するメソッドの特異性、特にre-IDドメインギャップをブリッジする役割について興味深い議論を行う。
コードはhttps://github.com/yorkeyao/snpで入手できる。
関連論文リスト
- Cross-video Identity Correlating for Person Re-identification Pre-training [38.43616465478059]
本稿では,CION(Cross-video Identity-cOrrelating Pre-TraiNing)フレームワークを提案する。
CIONは、プログレッシブなマルチレベル denoising 問題としてモデル化することで、クロスビデオ画像からの同一性相関を求める。
また,この分野での多様な研究や応用ニーズを満たすため,ReIDZooというモデル動物園を寄贈した。
論文 参考訳(メタデータ) (2024-09-27T09:12:33Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Learning Embeddings with Centroid Triplet Loss for Object Identification in Robotic Grasping [14.958823096408175]
基礎モデルはディープラーニングとコンピュータビジョンの強力なトレンドだ。
本稿では,そのような物体識別モデルの訓練に焦点をあてる。
このようなモデルをトレーニングするための主要な解決策は、遠心三重項損失(CTL)である。
論文 参考訳(メタデータ) (2024-04-09T13:01:26Z) - Generalizable Re-Identification from Videos with Cycle Association [60.920036335996414]
トレーニングの複雑さの低いre-IDのためのスケーラブルな自己教師型学習手法として,CycAs(CycAs)を提案する。
提案手法に適したLMPビデオという,大規模でラベルのないre-IDデータセットを構築した。
CycAsは、時間的に連続したビデオフレームペア間のインスタンス関連性のサイクル一貫性を強制することによって、re-ID特徴を学習する。
論文 参考訳(メタデータ) (2022-11-07T16:21:57Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。