論文の概要: DART$^3$: Leveraging Distance for Test Time Adaptation in Person Re-Identification
- arxiv url: http://arxiv.org/abs/2505.18337v1
- Date: Fri, 23 May 2025 19:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.349059
- Title: DART$^3$: Leveraging Distance for Test Time Adaptation in Person Re-Identification
- Title(参考訳): DART$^3$: 人物再同定におけるテスト時間適応のための距離の活用
- Authors: Rajarshi Bhattacharya, Shakeeb Murtaza, Christian Desrosiers, Jose Dolz, Maguelonne Heritier, Eric Granger,
- Abstract要約: 人物再識別(ReID)モデルはカメラバイアスに悩まされ、学習された表現はアイデンティティではなく、カメラの視点に応じてクラスタ化される。
DART$3$は、カメラによるReIDのドメインシフトを軽減するために特別に設計されたTTAフレームワークである。
- 参考スコア(独自算出の注目度): 20.378299237413177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (ReID) models are known to suffer from camera bias, where learned representations cluster according to camera viewpoints rather than identity, leading to significant performance degradation under (inter-camera) domain shifts in real-world surveillance systems when new cameras are added to camera networks. State-of-the-art test-time adaptation (TTA) methods, largely designed for classification tasks, rely on classification entropy-based objectives that fail to generalize well to ReID, thus making them unsuitable for tackling camera bias. In this paper, we introduce DART$^3$, a TTA framework specifically designed to mitigate camera-induced domain shifts in person ReID. DART$^3$ (Distance-Aware Retrieval Tuning at Test Time) leverages a distance-based objective that aligns better with image retrieval tasks like ReID by exploiting the correlation between nearest-neighbor distance and prediction error. Unlike prior ReID-specific domain adaptation methods, DART$^3$ requires no source data, architectural modifications, or retraining, and can be deployed in both fully black-box and hybrid settings. Empirical evaluations on multiple ReID benchmarks indicate that DART$^3$ and DART$^3$ LITE, a lightweight alternative to the approach, consistently outperforms state-of-the-art TTA baselines, making for a viable option to online learning to mitigate the adverse effects of camera bias.
- Abstract(参考訳): 人物再識別(ReID)モデルは、カメラバイアスに悩まされていることが知られており、カメラネットワークに新しいカメラを追加すると、実世界の監視システムにおける(カメラ間)ドメインシフトの下で、学習された表現が、アイデンティティではなくカメラ視点に従ってクラスタ化される。
最新のテスト時間適応法(TTA)は、主に分類タスク用に設計されており、ReIDにうまく対応できない分類エントロピーに基づく目的に依存しているため、カメラバイアスに対処するには不適である。
本稿では、DART$^3$という、カメラによるReIDのドメインシフトを緩和するTTAフレームワークを紹介する。
DART$^3$ (Distance-Aware Retrieval Tuning at Test Time) は、近辺距離と予測誤差の相関を利用して、ReIDのような画像検索タスクと整合する、距離ベースの目標を活用する。
従来のReID固有のドメイン適応メソッドとは異なり、DART$^3$はソースデータやアーキテクチャの変更、再トレーニングを必要とせず、完全にブラックボックスとハイブリッド設定の両方にデプロイできる。
複数のReIDベンチマークに関する実証的な評価によると、DART$^3$とDART$^3$ LITEは、アプローチの軽量な代替品であり、常に最先端のTTAベースラインを上回り、カメラバイアスの悪影響を軽減するためのオンライン学習の選択肢となる。
関連論文リスト
- Low Saturation Confidence Distribution-based Test-Time Adaptation for Cross-Domain Remote Sensing Image Classification [4.7514513970228425]
Unsupervised Domain Adaptation (UDA)は、様々なリモートセンシング(RS)アプリケーション間の分散シフトに対処する強力な技術として登場した。
ほとんどのUDAアプローチでは、データプライバシや送信制限のため、ソースデータへのアクセスが必要になります。
低飽和度分布テスト時間適応(D-TTA)マーケティングは、クロスドメインRS画像分類のためのテスト時間適応を探求する最初の試みである。
論文 参考訳(メタデータ) (2024-08-29T05:04:25Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Revisiting Domain-Adaptive 3D Object Detection by Reliable, Diverse and
Class-balanced Pseudo-Labeling [38.07637524378327]
ドメイン適応型3Dオブジェクト検出において,疑似ラベリング技術を用いた教師なしドメイン適応(DA)が重要なアプローチとして浮上している。
既存のDAメソッドは、マルチクラスのトレーニング環境に適用した場合、パフォーマンスが大幅に低下する。
本稿では,すべてのクラスを一度に検出する学習に適した新しいReDBフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-16T04:34:11Z) - Camera Alignment and Weighted Contrastive Learning for Domain Adaptation
in Video Person ReID [17.90248359024435]
人物再識別システム(ReID)は、大規模な完全ラベル画像データセットでトレーニングした場合、高い精度を達成することができる。
様々な運用状況(例えば、カメラの視点や照明など)に関連したドメインシフトは、パフォーマンスの大幅な低下に繋がる可能性がある。
本稿では、ビデオベースのReIDのための教師なしドメイン適応(UDA)に焦点を当てる。
論文 参考訳(メタデータ) (2022-11-07T15:32:56Z) - Dual Adversarial Adaptation for Cross-Device Real-World Image
Super-Resolution [114.26933742226115]
異なるデバイスからの画像に基づいて訓練された超高解像度(SR)モデルは、異なる画像パターンを示す可能性がある。
本稿では、DADA(Dual Adversarial Adaptation)という、実世界のSRのための教師なしドメイン適応機構を提案する。
3台のカメラで6台のリアル・トゥ・リアル・アダプティブ・セッティングで実験を行い、既存の最先端のアプローチと比較して優れた性能を実現した。
論文 参考訳(メタデータ) (2022-05-07T02:55:39Z) - Camera-Tracklet-Aware Contrastive Learning for Unsupervised Vehicle
Re-Identification [4.5471611558189124]
車両識別ラベルのないマルチカメラ・トラックレット情報を用いたカメラ・トラックレット対応コントラスト学習(CTACL)を提案する。
提案したCTACLは、全車両画像(全車両画像)を複数のカメラレベルの画像に分割し、コントラスト学習を行う。
本稿では,ビデオベースおよび画像ベース車両のRe-IDデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2021-09-14T02:12:54Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Rethinking the Distribution Gap of Person Re-identification with
Camera-based Batch Normalization [90.9485099181197]
本稿では,従来のReID手法の動作機構を再考する。
我々は、すべてのカメラの画像データを同じ部分空間に落とすように強制する。
幅広いReIDタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-01-23T17:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。