論文の概要: Nighttime Person Re-Identification via Collaborative Enhancement Network with Multi-domain Learning
- arxiv url: http://arxiv.org/abs/2312.16246v2
- Date: Sat, 04 Jan 2025 03:50:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 16:36:49.183611
- Title: Nighttime Person Re-Identification via Collaborative Enhancement Network with Multi-domain Learning
- Title(参考訳): 複数ドメイン学習を用いた協調強化ネットワークによる夜間人物再同定
- Authors: Andong Lu, Chenglong Li, Tianrui Zha, Jin Tang, Xiaofeng Wang, Bin Luo,
- Abstract要約: 本稿では、夜間のReIDのための並列フレームワークにおいて、多レベル特徴相互作用を行うCENetという新しい協調型拡張ネットワークを提案する。
特に,CENetの設計した並列構造は,リライティング画像の品質がReID性能に与える影響を回避するだけでなく,画像リライティングと人物ReIDタスクの協調関係を掘り下げることを可能にする。
- 参考スコア(独自算出の注目度): 24.13081086915467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prevalent nighttime person re-identification (ReID) methods typically combine image relighting and ReID networks in a sequential manner. However, their performance (recognition accuracy) is limited by the quality of relighting images and insufficient collaboration between image relighting and ReID tasks. To handle these problems, we propose a novel Collaborative Enhancement Network called CENet, which performs the multilevel feature interactions in a parallel framework, for nighttime person ReID. In particular, the designed parallel structure of CENet can not only avoid the impact of the quality of relighting images on ReID performance, but also allow us to mine the collaborative relations between image relighting and person ReID tasks. To this end, we integrate the multilevel feature interactions in CENet, where we first share the Transformer encoder to build the low-level feature interaction, and then perform the feature distillation that transfers the high-level features from image relighting to ReID, thereby alleviating the severe image degradation issue caused by the nighttime scenario while avoiding the impact of relighting images. In addition, the sizes of existing real-world nighttime person ReID datasets are limited, and large-scale synthetic ones exhibit substantial domain gaps with real-world data. To leverage both small-scale real-world and large-scale synthetic training data, we develop a multi-domain learning algorithm, which alternately utilizes both kinds of data to reduce the inter-domain difference in training procedure. Extensive experiments on two real nighttime datasets, \textit{Night600} and \textit{RGBNT201$_{rgb}$}, and a synthetic nighttime ReID dataset are conducted to validate the effectiveness of CENet. We release the code and synthetic dataset at: \hyperlink{https://github.com/Alexadlu/CENet}{\color{red} https://github.com/Alexadlu/CENet}.
- Abstract(参考訳): 典型的な夜間人物再識別法(ReID)は、画像のリライトとReIDネットワークを逐次的に組み合わせている。
しかし、その性能(認識精度)は、リライティング画像の品質と、リライティングとReIDタスク間のコラボレーションの不十分さによって制限される。
このような問題に対処するために、夜間のReIDのための並列フレームワークでマルチレベル機能インタラクションを実行するCENetと呼ばれる新しい協調型拡張ネットワークを提案する。
特に,CENetの設計した並列構造は,リライティング画像の品質がReID性能に与える影響を回避するだけでなく,画像リライティングと人物ReIDタスクの協調関係を掘り下げることを可能にする。
この目的のために、CENetのマルチレベル機能インタラクションを統合し、まずTransformerエンコーダを共有して低レベル機能インタラクションを構築し、次に、高レベルの特徴を画像リライトからReIDに転送する機能蒸留を実行する。
さらに、実世界の夜間人物ReIDデータセットのサイズは制限されており、大規模な合成データセットは実世界のデータとかなりのドメインギャップを示す。
実世界の小規模な学習データと大規模合成学習データの両方を活用するために,両種類のデータを交互に利用し,訓練手順におけるドメイン間差を低減するマルチドメイン学習アルゴリズムを開発した。
CENetの有効性を検証するために,2つの実夜間データセット, \textit{Night600} と \textit{RGBNT201$_{rgb}$} と合成夜間ReIDデータセットの大規模な実験を行った。
コードと合成データセットは以下の通りである。 \hyperlink{https://github.com/Alexadlu/CENet}{\color{red} https://github.com/Alexadlu/CENet}。
関連論文リスト
- RHRSegNet: Relighting High-Resolution Night-Time Semantic Segmentation [0.0]
夜間セマンティックセグメンテーションはコンピュータビジョンにおいて重要な課題であり、低照度条件下でのオブジェクトの正確な分類とセグメンテーションに焦点を当てている。
セマンティックセグメンテーションのための高分解能ネットワーク上でのリライトモデルを実装したRHRSegNetを提案する。
提案モデルでは、低照度画像や夜間画像においてHRnetセグメンテーション性能を5%向上させる。
論文 参考訳(メタデータ) (2024-07-08T15:07:09Z) - Specularity Factorization for Low-Light Enhancement [2.7961648901433134]
本稿では,複数の潜伏成分からなる画像を扱う付加的な画像分解手法を提案する。
当社のモデル駆動型EM RSFNetは,最適化をネットワーク層に展開することで,これらの要因を推定する。
結果の因子は設計によって解釈可能であり、ネットワークを介して異なる画像強調タスクに融合したり、直接ユーザによって結合したりすることができる。
論文 参考訳(メタデータ) (2024-04-02T14:41:42Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - Efficient Cloud-edge Collaborative Inference for Object
Re-identification [27.952445808987036]
我々は、ReIDシステムのためのクラウド-エッジ協調推論フレームワークを開拓した。
本稿では,クラウドサーバに所望の画像を返すために,分散対応相関モデルネットワーク(DaCM)を提案する。
DaCMは、タイムスタンプに暗黙的に含まれている空間的時間的相関関係をグラフ構造に埋め込んで、アップロードウィンドウのサイズを調整するためにクラウドに適用することができる。
論文 参考訳(メタデータ) (2024-01-04T02:56:50Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - ViR: Towards Efficient Vision Retention Backbones [97.93707844681893]
視覚保持ネットワーク(ViR)と呼ばれる新しいコンピュータビジョンモデルを提案する。
ViRは並列および繰り返しの定式化を持ち、高速推論と並列トレーニングと競合性能の最適なバランスをとる。
我々は,様々なデータセットサイズと様々な画像解像度を用いた広範囲な実験により,ViRの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-30T16:55:50Z) - Mutual Information-driven Triple Interaction Network for Efficient Image
Dehazing [54.168567276280505]
画像デハージングのための相互情報駆動型トリプルインタラクションネットワーク(MITNet)を提案する。
振幅誘導ヘイズ除去と呼ばれる第1段階は、ヘイズ除去のためのヘイズ画像の振幅スペクトルを復元することを目的としている。
第2段階は位相誘導構造が洗練され、位相スペクトルの変換と微細化を学ぶことに尽力した。
論文 参考訳(メタデータ) (2023-08-14T08:23:58Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - HALSIE: Hybrid Approach to Learning Segmentation by Simultaneously
Exploiting Image and Event Modalities [6.543272301133159]
イベントカメラは、非同期イベントストリームを生成するためにピクセルごとの強度の変化を検出する。
リアルタイム自律システムにおいて、正確なセマンティックマップ検索のための大きな可能性を秘めている。
イベントセグメンテーションの既存の実装は、サブベースのパフォーマンスに悩まされている。
本研究では,ハイブリット・エンド・エンド・エンドの学習フレームワークHALSIEを提案する。
論文 参考訳(メタデータ) (2022-11-19T17:09:50Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - FCL-GAN: A Lightweight and Real-Time Baseline for Unsupervised Blind
Image Deblurring [72.43250555622254]
本稿では,周波数領域の競合損失制約型軽量サイクルGANと呼ばれる,軽量でリアルタイムな非教師付きBIDベースラインを提案する。
FCL-GANは、画像領域制限がなく、画像解像度制限がなく、SOTAより25倍軽く、SOTAより5倍高速である。
いくつかの画像データセットの実験では、性能、モデルサイズ、参照時間の観点からFCL-GANの有効性が示されている。
論文 参考訳(メタデータ) (2022-04-16T15:08:03Z) - LEDNet: Joint Low-light Enhancement and Deblurring in the Dark [100.24389251273611]
共同低照度化とデブロアリングのための最初の大規模データセットを提示する。
LOL-Blurは12,000個の低ブルー/ノーマルシャープのペアを含み、異なるシナリオで様々な暗黒と動きのぼかしを持つ。
また,LEDNetと名付けられ,低照度化と劣化を両立させる有効なネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T17:44:05Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Multi-Stage Progressive Image Restoration [167.6852235432918]
本稿では、これらの競合する目標を最適にバランスできる新しい相乗的設計を提案する。
本提案では, 劣化した入力の復元関数を段階的に学習する多段階アーキテクチャを提案する。
MPRNetという名前の密接な相互接続型マルチステージアーキテクチャは、10のデータセットに対して強力なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2021-02-04T18:57:07Z) - Hybrid Backpropagation Parallel Reservoir Networks [8.944918753413827]
本稿では,貯水池のランダムな時間的特徴と深層ニューラルネットワークの読み出し能力と,バッチ正規化を併用した新しいハイブリッドネットワークを提案する。
我々の新しいネットワークはLSTMやGRUよりも優れていることを示す。
また, HBP-ESN M-Ring と呼ばれる新しいメタリング構造を組み込むことで, 1つの大きな貯水池に類似した性能を実現し, メモリ容量の最大化を図っている。
論文 参考訳(メタデータ) (2020-10-27T21:03:35Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。