論文の概要: CORE-ReID V2: Advancing the Domain Adaptation for Object Re-Identification with Optimized Training and Ensemble Fusion
- arxiv url: http://arxiv.org/abs/2508.04036v1
- Date: Wed, 06 Aug 2025 02:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.512574
- Title: CORE-ReID V2: Advancing the Domain Adaptation for Object Re-Identification with Optimized Training and Ensemble Fusion
- Title(参考訳): CORE-ReID V2:最適化トレーニングとアンサンブル融合によるオブジェクト再同定のためのドメイン適応の改善
- Authors: Trinh Quoc Nguyen, Oky Dicky Ardiansyah Prima, Syahid Al Irfan, Hindriyanto Dwi Purnomo, Radius Tanone,
- Abstract要約: 本研究では,CORE-ReIDに基づくフレームワークであるCORE-ReID V2を提案する。
新しいフレームワークは Person ReID と Vehicle ReID における Unsupervised Domain Adaptation (UDA) の課題に対処する。
広く使われているUDA Person ReID と Vehicle ReID データセットの実験結果から,提案手法が最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study presents CORE-ReID V2, an enhanced framework building upon CORE-ReID. The new framework extends its predecessor by addressing Unsupervised Domain Adaptation (UDA) challenges in Person ReID and Vehicle ReID, with further applicability to Object ReID. During pre-training, CycleGAN is employed to synthesize diverse data, bridging image characteristic gaps across different domains. In the fine-tuning, an advanced ensemble fusion mechanism, consisting of the Efficient Channel Attention Block (ECAB) and the Simplified Efficient Channel Attention Block (SECAB), enhances both local and global feature representations while reducing ambiguity in pseudo-labels for target samples. Experimental results on widely used UDA Person ReID and Vehicle ReID datasets demonstrate that the proposed framework outperforms state-of-the-art methods, achieving top performance in Mean Average Precision (mAP) and Rank-k Accuracy (Top-1, Top-5, Top-10). Moreover, the framework supports lightweight backbones such as ResNet18 and ResNet34, ensuring both scalability and efficiency. Our work not only pushes the boundaries of UDA-based Object ReID but also provides a solid foundation for further research and advancements in this domain. Our codes and models are available at https://github.com/TrinhQuocNguyen/CORE-ReID-V2.
- Abstract(参考訳): 本研究では,CORE-ReIDに基づくフレームワークであるCORE-ReID V2を提案する。
新しいフレームワークは、 Person ReID と Vehicle ReID における Unsupervised Domain Adaptation (UDA) の課題に対処し、Object ReID をさらに適用することで、前者を拡張している。
事前トレーニングの間、CycleGANは多様なデータを合成し、異なる領域にまたがる特徴的ギャップを埋めるために使用される。
細調整において、効率的なチャネル注意ブロック(ECAB)と単純化されたチャネル注意ブロック(SECAB)からなる高度なアンサンブル融合機構は、ターゲットサンプルの擬似ラベルの曖昧さを低減しつつ、局所的およびグローバル的特徴表現を増強する。
UDA Person ReID と Vehicle ReID データセットを用いた実験結果から,提案手法は平均精度 (mAP) とRan-k 精度 (Top-1, Top-5, Top-10) で最高性能を達成した。
さらに、フレームワークはResNet18やResNet34のような軽量なバックボーンをサポートし、スケーラビリティと効率性の両方を保証する。
我々の研究は、UDAベースのObject ReIDの境界を推し進めるだけでなく、この領域におけるさらなる研究と進歩のための確かな基盤も提供します。
私たちのコードとモデルはhttps://github.com/TrinhQuocNguyen/CORE-ReID-V2で公開されています。
関連論文リスト
- CORE-ReID: Comprehensive Optimization and Refinement through Ensemble fusion in Domain Adaptation for person re-identification [0.0]
本研究は,「個人再識別のためのドメイン適応におけるアンサンブル融合による包括的最適化と再定義」という新しい枠組みを紹介する。
このフレームワークは、CycleGANを使用して、事前トレーニング段階で異なるカメラソースからの画像特性の違いを調和させる多様なデータを生成する。
微調整の段階では、教師と学生の2つのネットワークに基づいて、多層クラスタリングのためのマルチビュー機能を統合し、多様な擬似ラベルを導出する。
論文 参考訳(メタデータ) (2025-08-05T04:25:03Z) - PointOBB-v3: Expanding Performance Boundaries of Single Point-Supervised Oriented Object Detection [65.84604846389624]
我々は,より強力な単一点制御OODフレームワークであるPointOBB-v3を提案する。
追加のプリミティブなしで擬似回転ボックスを生成し、エンドツーエンドのパラダイムをサポートする。
本手法は従来の最先端手法と比較して3.56%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-23T18:18:15Z) - FUSED-Net: Detecting Traffic Signs with Limited Data [2.111102681327218]
本稿では,交通信号検出のための高速RCNN「FUSED-Net」を提案する。
従来のアプローチとは異なり、トレーニング中にすべてのパラメータを凍結しないようにし、限られたサンプルからFUSED-Netを学習できるようにします。
1ショット,3ショット,5ショット,10ショットのシナリオでそれぞれ2.4倍,2.2倍,1.5倍,1.3倍の改善を実現しています。
論文 参考訳(メタデータ) (2024-09-23T09:34:42Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Hierarchical Disentanglement-Alignment Network for Robust SAR Vehicle
Recognition [18.38295403066007]
HDANetは機能障害とアライメントを統合フレームワークに統合する。
提案手法は,MSTARデータセットにおいて,9つの動作条件にまたがる顕著なロバスト性を示す。
論文 参考訳(メタデータ) (2023-04-07T09:11:29Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Fast Camouflaged Object Detection via Edge-based Reversible
Re-calibration Network [17.538512222905087]
本稿では,ERRNetと呼ばれるエッジベースの可逆再校正ネットワークを提案する。
Selective Edge Aggregation(SEA)とReversible Re-calibration Unit(RRU)の2つの革新的な設計が特徴である。
実験の結果,ERRNetは3つのCODデータセットと5つの医用画像セグメンテーションデータセットで既存の最先端ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-11-05T02:03:54Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - Enhancing Object Detection for Autonomous Driving by Optimizing Anchor
Generation and Addressing Class Imbalance [0.0]
本研究では,より高速なR-CNNに基づく拡張型2次元物体検出器を提案する。
より高速なr-cnnに対する修正は計算コストを増加させず、他のアンカーベースの検出フレームワークを最適化するために容易に拡張できる。
論文 参考訳(メタデータ) (2021-04-08T16:58:31Z) - CRACT: Cascaded Regression-Align-Classification for Robust Visual
Tracking [97.84109669027225]
改良された提案改良モジュールCascaded Regression-Align- Classification (CRAC)を導入する。
CRACは多くのベンチマークで最先端のパフォーマンスを得る。
OTB-2015、UAV123、NfS、VOT-2018、TrackingNet、GOT-10k、LaSOTを含む7つのベンチマークの実験において、我々のCRACTは最先端の競合他社と比較して非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-11-25T02:18:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。