論文の概要: Nighttime Person Re-Identification via Collaborative Enhancement Network with Multi-domain Learning
- arxiv url: http://arxiv.org/abs/2312.16246v2
- Date: Sat, 04 Jan 2025 03:50:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:03:25.052187
- Title: Nighttime Person Re-Identification via Collaborative Enhancement Network with Multi-domain Learning
- Title(参考訳): 複数ドメイン学習を用いた協調強化ネットワークによる夜間人物再同定
- Authors: Andong Lu, Chenglong Li, Tianrui Zha, Jin Tang, Xiaofeng Wang, Bin Luo,
- Abstract要約: 本稿では、夜間のReIDのための並列フレームワークにおいて、多レベル特徴相互作用を行うCENetという新しい協調型拡張ネットワークを提案する。
特に,CENetの設計した並列構造は,リライティング画像の品質がReID性能に与える影響を回避するだけでなく,画像リライティングと人物ReIDタスクの協調関係を掘り下げることを可能にする。
- 参考スコア(独自算出の注目度): 24.13081086915467
- License:
- Abstract: Prevalent nighttime person re-identification (ReID) methods typically combine image relighting and ReID networks in a sequential manner. However, their performance (recognition accuracy) is limited by the quality of relighting images and insufficient collaboration between image relighting and ReID tasks. To handle these problems, we propose a novel Collaborative Enhancement Network called CENet, which performs the multilevel feature interactions in a parallel framework, for nighttime person ReID. In particular, the designed parallel structure of CENet can not only avoid the impact of the quality of relighting images on ReID performance, but also allow us to mine the collaborative relations between image relighting and person ReID tasks. To this end, we integrate the multilevel feature interactions in CENet, where we first share the Transformer encoder to build the low-level feature interaction, and then perform the feature distillation that transfers the high-level features from image relighting to ReID, thereby alleviating the severe image degradation issue caused by the nighttime scenario while avoiding the impact of relighting images. In addition, the sizes of existing real-world nighttime person ReID datasets are limited, and large-scale synthetic ones exhibit substantial domain gaps with real-world data. To leverage both small-scale real-world and large-scale synthetic training data, we develop a multi-domain learning algorithm, which alternately utilizes both kinds of data to reduce the inter-domain difference in training procedure. Extensive experiments on two real nighttime datasets, \textit{Night600} and \textit{RGBNT201$_{rgb}$}, and a synthetic nighttime ReID dataset are conducted to validate the effectiveness of CENet. We release the code and synthetic dataset at: \hyperlink{https://github.com/Alexadlu/CENet}{\color{red} https://github.com/Alexadlu/CENet}.
- Abstract(参考訳): 典型的な夜間人物再識別法(ReID)は、画像のリライトとReIDネットワークを逐次的に組み合わせている。
しかし、その性能(認識精度)は、リライティング画像の品質と、リライティングとReIDタスク間のコラボレーションの不十分さによって制限される。
このような問題に対処するために、夜間のReIDのための並列フレームワークでマルチレベル機能インタラクションを実行するCENetと呼ばれる新しい協調型拡張ネットワークを提案する。
特に,CENetの設計した並列構造は,リライティング画像の品質がReID性能に与える影響を回避するだけでなく,画像リライティングと人物ReIDタスクの協調関係を掘り下げることを可能にする。
この目的のために、CENetのマルチレベル機能インタラクションを統合し、まずTransformerエンコーダを共有して低レベル機能インタラクションを構築し、次に、高レベルの特徴を画像リライトからReIDに転送する機能蒸留を実行する。
さらに、実世界の夜間人物ReIDデータセットのサイズは制限されており、大規模な合成データセットは実世界のデータとかなりのドメインギャップを示す。
実世界の小規模な学習データと大規模合成学習データの両方を活用するために,両種類のデータを交互に利用し,訓練手順におけるドメイン間差を低減するマルチドメイン学習アルゴリズムを開発した。
CENetの有効性を検証するために,2つの実夜間データセット, \textit{Night600} と \textit{RGBNT201$_{rgb}$} と合成夜間ReIDデータセットの大規模な実験を行った。
コードと合成データセットは以下の通りである。 \hyperlink{https://github.com/Alexadlu/CENet}{\color{red} https://github.com/Alexadlu/CENet}。
関連論文リスト
- RHRSegNet: Relighting High-Resolution Night-Time Semantic Segmentation [0.0]
夜間セマンティックセグメンテーションはコンピュータビジョンにおいて重要な課題であり、低照度条件下でのオブジェクトの正確な分類とセグメンテーションに焦点を当てている。
セマンティックセグメンテーションのための高分解能ネットワーク上でのリライトモデルを実装したRHRSegNetを提案する。
提案モデルでは、低照度画像や夜間画像においてHRnetセグメンテーション性能を5%向上させる。
論文 参考訳(メタデータ) (2024-07-08T15:07:09Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - LEDNet: Joint Low-light Enhancement and Deblurring in the Dark [100.24389251273611]
共同低照度化とデブロアリングのための最初の大規模データセットを提示する。
LOL-Blurは12,000個の低ブルー/ノーマルシャープのペアを含み、異なるシナリオで様々な暗黒と動きのぼかしを持つ。
また,LEDNetと名付けられ,低照度化と劣化を両立させる有効なネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T17:44:05Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。