論文の概要: Large-scale Fully-Unsupervised Re-Identification
- arxiv url: http://arxiv.org/abs/2307.14278v1
- Date: Wed, 26 Jul 2023 16:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 11:49:38.311733
- Title: Large-scale Fully-Unsupervised Re-Identification
- Title(参考訳): 大規模完全教師なし再確認
- Authors: Gabriel Bertocco, Fernanda Andal\'o, Terrance E. Boult, and Anderson
Rocha
- Abstract要約: 大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
- 参考スコア(独自算出の注目度): 78.47108158030213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully-unsupervised Person and Vehicle Re-Identification have received
increasing attention due to their broad applicability in surveillance,
forensics, event understanding, and smart cities, without requiring any manual
annotation. However, most of the prior art has been evaluated in datasets that
have just a couple thousand samples. Such small-data setups often allow the use
of costly techniques in time and memory footprints, such as Re-Ranking, to
improve clustering results. Moreover, some previous work even pre-selects the
best clustering hyper-parameters for each dataset, which is unrealistic in a
large-scale fully-unsupervised scenario. In this context, this work tackles a
more realistic scenario and proposes two strategies to learn from large-scale
unlabeled data. The first strategy performs a local neighborhood sampling to
reduce the dataset size in each iteration without violating neighborhood
relationships. A second strategy leverages a novel Re-Ranking technique, which
has a lower time upper bound complexity and reduces the memory complexity from
O(n^2) to O(kn) with k << n. To avoid the pre-selection of specific
hyper-parameter values for the clustering algorithm, we also present a novel
scheduling algorithm that adjusts the density parameter during training, to
leverage the diversity of samples and keep the learning robust to noisy
labeling. Finally, due to the complementary knowledge learned by different
models, we also introduce a co-training strategy that relies upon the
permutation of predicted pseudo-labels, among the backbones, with no need for
any hyper-parameters or weighting optimization. The proposed methodology
outperforms the state-of-the-art methods in well-known benchmarks and in the
challenging large-scale Veri-Wild dataset, with a faster and memory-efficient
Re-Ranking strategy, and a large-scale, noisy-robust, and ensemble-based
learning approach.
- Abstract(参考訳): 完全に監督されていない人物と車両の再識別は、手動のアノテーションを必要とせず、監視、法医学、イベント理解、スマートシティに広く適用できるため、注目されている。
しかしながら、以前の技術のほとんどは、わずか数千のサンプルを持つデータセットで評価されている。
このような小さなデータ設定は、時間とメモリフットプリント(Re-Rankingなど)にコストのかかるテクニックを使用することで、クラスタリング結果を改善することができる。
さらに、以前の作業では、データセット毎に最適なクラスタリングハイパーパラメータを事前に選択しているものもある。
この文脈では、より現実的なシナリオに取り組み、大規模なラベルのないデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、各イテレーションにおけるデータセットサイズを削減するために、ローカル近傍サンプリングを実行する。
第2の戦略は、より低い時間上限の複雑さを持ち、メモリの複雑さを k<<n で O(n^2) から O(kn) に還元する、新しいRe-Ranking 手法を利用する。
また,クラスタリングアルゴリズムの特定のハイパーパラメータ値の事前選択を回避するために,トレーニング中の密度パラメータを調整し,サンプルの多様性を活用し,学習をノイズラベリングに頑健に保つ新しいスケジューリングアルゴリズムを提案する。
最後に、異なるモデルによって学習された相補的な知識により、予測された擬似ラベルの背骨間の置換に依存し、ハイパーパラメータや重み付け最適化を必要としないコトレーニング戦略を導入する。
提案手法は,高名なベンチマークや大規模veri-wildデータセットにおいて,より高速でメモリ効率の高い再ランキング戦略,大規模でノイズの多い,アンサンブルベースの学習手法において,最先端の手法よりも優れている。
関連論文リスト
- Boosting K-means for Big Data by Fusing Data Streaming with Global Optimization [0.3069335774032178]
K平均クラスタリングはデータマイニングの基盤であるが、その効率は大量のデータセットに直面すると悪化する。
可変近傍探索(VNS)メタヒューリスティックを利用して,K平均クラスタリングをビッグデータに最適化する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-18T15:43:34Z) - Transfer Learning in $\ell_1$ Regularized Regression: Hyperparameter
Selection Strategy based on Sharp Asymptotic Analysis [4.178980693837599]
転送学習技術は、複数の関連するデータセットからの情報を活用し、ターゲットデータセットに対する予測品質を向上させることを目的としている。
トランス・ラッソ(Trans-Lasso)とプレトレーニング・ラッソ(Pretraining Lasso)である。
レプリカ法を用いて解析することにより,高次元環境下でのアルゴリズムの徹底的,精密な研究を行う。
微調整段階に転送される2種類の情報の1つを無視することは、一般化性能にはほとんど影響しない。
論文 参考訳(メタデータ) (2024-09-26T10:20:59Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Transductive Few-Shot Learning: Clustering is All You Need? [31.21306826132773]
そこで本研究では,プロトタイプをベースとした超越的数ショット学習の汎用的定式化について検討する。
提案手法は, 精度と最適化の観点から, 大きな問題にスケールアップしながら, 競争性能を向上する。
驚いたことに、私たちの一般的なモデルは、最先端の学習と比較して、すでに競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-16T16:14:01Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - SDCOR: Scalable Density-based Clustering for Local Outlier Detection in
Massive-Scale Datasets [0.0]
本稿では,大規模データセットにおける局所外乱検出のためのバッチワイド密度に基づくクラスタリング手法を提案する。
実生活および合成データセットの評価は,提案手法の線形時間複雑性が低いことを示す。
論文 参考訳(メタデータ) (2020-06-13T11:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。