論文の概要: Color Space Learning for Cross-Color Person Re-Identification
- arxiv url: http://arxiv.org/abs/2405.09487v1
- Date: Wed, 15 May 2024 16:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 12:56:32.550107
- Title: Color Space Learning for Cross-Color Person Re-Identification
- Title(参考訳): クロスカラー人物再同定のための色空間学習
- Authors: Jiahao Nie, Shan Lin, Alex C. Kot,
- Abstract要約: クロスカラーパーソンReID問題に対するカラー空間学習(CSL)を提案する。
CSLは、イメージレベルカラー拡張とPixelレベルカラートランスフォーメーションの2つのモジュールで、モデルが色に敏感になるようにガイドする。
我々の手法は一貫して最先端の手法を超越している。
- 参考スコア(独自算出の注目度): 31.110110147991033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary color profile of the same identity is assumed to remain consistent in typical Person Re-identification (Person ReID) tasks. However, this assumption may be invalid in real-world situations and images hold variant color profiles, because of cross-modality cameras or identity with different clothing. To address this issue, we propose Color Space Learning (CSL) for those Cross-Color Person ReID problems. Specifically, CSL guides the model to be less color-sensitive with two modules: Image-level Color-Augmentation and Pixel-level Color-Transformation. The first module increases the color diversity of the inputs and guides the model to focus more on the non-color information. The second module projects every pixel of input images onto a new color space. In addition, we introduce a new Person ReID benchmark across RGB and Infrared modalities, NTU-Corridor, which is the first with privacy agreements from all participants. To evaluate the effectiveness and robustness of our proposed CSL, we evaluate it on several Cross-Color Person ReID benchmarks. Our method surpasses the state-of-the-art methods consistently. The code and benchmark are available at: https://github.com/niejiahao1998/CSL
- Abstract(参考訳): 同じアイデンティティの一次色プロファイルは、典型的なPerson ReID(Person ReID)タスクにおいて一貫性が保たれていると仮定される。
しかし、この仮定は現実の状況では無効であり、画像には異なる色プロファイルがある。
この問題を解決するために,クロスカラーパーソンReID問題に対するカラー空間学習(CSL)を提案する。
具体的には、CSLは、イメージレベルのカラー拡張とPixelレベルのカラートランスフォーメーションの2つのモジュールで、モデルが色に敏感になるようにガイドする。
最初のモジュールは入力の色多様性を高め、非色情報にもっと焦点を合わせるようモデルに誘導する。
第2のモジュールは入力画像の各ピクセルを新しい色空間に投影する。
さらに、RGBおよび赤外線モダリティ(NTU-Corridor)にまたがる新たなPerson ReIDベンチマーク(Person ReID)を導入する。
提案したCSLの有効性とロバスト性を評価するため,いくつかのクロスカラーPerson ReIDベンチマークで評価を行った。
我々の手法は一貫して最先端の手法を超越している。
コードとベンチマークは、https://github.com/niejiahao1998/CSLで公開されている。
関連論文リスト
- Training-free Color-Style Disentanglement for Constrained Text-to-Image Synthesis [16.634138745034733]
そこで本研究では,参照画像から色とスタイル属性のテキスト・ツー・イメージを分離する,最初のトレーニングフリーでテスト時間のみの手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T04:16:58Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - UniGS: Unified Representation for Image Generation and Segmentation [105.08152635402858]
カラーマップを使用してエンティティレベルのマスクを表現し、さまざまなエンティティ番号の課題に対処します。
マスク表現を支援するために、位置認識カラーパレットとプログレッシブ二分法モジュールを含む2つの新しいモジュールが提案されている。
論文 参考訳(メタデータ) (2023-12-04T15:59:27Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - What's color got to do with it? Face recognition in grayscale [9.252410144412089]
最先端のディープCNNフェイスマーカは通常、カラーフェイスイメージの広範なトレーニングセットを使用して作成される。
本研究は、トレーニングセットのグレースケールまたはカラーバージョンでトレーニングした場合、そのようなマーカがほぼ同一の精度に達することを明らかにした。
より浅いモデルは、複雑な表現をモデル化する能力に欠けており、色に関連するような低レベルの特徴に強く依存している。
論文 参考訳(メタデータ) (2023-09-11T00:32:26Z) - DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus
Segmentation [68.43628183890007]
ドメインギャップは、異なるフォアグラウンド(核)-バックグラウンド比によっても引き起こされる可能性があると我々は主張する。
まず、異なる領域間の劇的な画像色変化を緩和する再カラー化手法を提案する。
次に,前景-背景比の変動に頑健な新しいインスタンス正規化手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T01:01:13Z) - SPColor: Semantic Prior Guided Exemplar-based Image Colorization [14.191819767895867]
本研究では,SPColorを提案する。
SPColorはまず、参照画像とターゲット画像のピクセルをセマンティック先行のガイダンスの下で複数の擬似クラスに分類する。
我々のモデルは、最近の最先端の手法を定量的にも質的にも、公開データセット上でも優れています。
論文 参考訳(メタデータ) (2023-04-13T04:21:45Z) - Color2Style: Real-Time Exemplar-Based Image Colorization with
Self-Reference Learning and Deep Feature Modulation [29.270149925368674]
色を鮮やかな色で満たしてグレースケールの画像媒体を復活させるため,カラーカラー化手法としてColor2Styleを提案する。
提案手法は,参照画像から抽出した色埋め込みを入力されたグレースケール画像の深部表現に注入する,単純だが効果的な深部特徴変調(DFM)モジュールを利用する。
論文 参考訳(メタデータ) (2021-06-15T10:05:58Z) - CoRe: Color Regression for Multicolor Fashion Garments [80.57724826629176]
本稿では,RGBの正確な値を予測するために,色検出を回帰問題として扱う。
新たに提案したアーキテクチャの洗練のための第2のレグレッションステージも含んでいます。
このアーキテクチャはモジュラーであり、多色衣料のすべての色のRGBを検出するために容易に拡張される。
論文 参考訳(メタデータ) (2020-10-06T16:12:30Z) - The Utility of Decorrelating Colour Spaces in Vector Quantised
Variational Autoencoders [1.7792264784100689]
ネットワーク学習構造表現を強制するカラー空間変換を提案する。
入力が1つの色空間のイメージであり、出力が別の色空間のイメージであるVQ-VAEのいくつかの例を訓練した。
論文 参考訳(メタデータ) (2020-09-30T07:44:01Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。