論文の概要: Learning Clothing and Pose Invariant 3D Shape Representation for
Long-Term Person Re-Identification
- arxiv url: http://arxiv.org/abs/2308.10658v3
- Date: Thu, 21 Sep 2023 04:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 18:43:00.307275
- Title: Learning Clothing and Pose Invariant 3D Shape Representation for
Long-Term Person Re-Identification
- Title(参考訳): 長期人物再同定のための衣服の学習と3次元形状表現
- Authors: Feng Liu, Minchul Kim, ZiAng Gu, Anil Jain, Xiaoming Liu
- Abstract要約: 我々は、LT-ReIDを歩行者認識を超えて、より広範囲の現実世界の人間活動を含むよう拡張することを目指している。
この設定は、人間のポーズや衣服の多様性によって引き起こされる幾何学的ミスアライメントと外観の曖昧さによって、さらなる課題を生じさせる。
非同一性成分から同一性を引き離すための3DInvarReIDを提案する。
- 参考スコア(独自算出の注目度): 16.797826602710035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-Term Person Re-Identification (LT-ReID) has become increasingly crucial
in computer vision and biometrics. In this work, we aim to extend LT-ReID
beyond pedestrian recognition to include a wider range of real-world human
activities while still accounting for cloth-changing scenarios over large time
gaps. This setting poses additional challenges due to the geometric
misalignment and appearance ambiguity caused by the diversity of human pose and
clothing. To address these challenges, we propose a new approach 3DInvarReID
for (i) disentangling identity from non-identity components (pose, clothing
shape, and texture) of 3D clothed humans, and (ii) reconstructing accurate 3D
clothed body shapes and learning discriminative features of naked body shapes
for person ReID in a joint manner. To better evaluate our study of LT-ReID, we
collect a real-world dataset called CCDA, which contains a wide variety of
human activities and clothing changes. Experimentally, we show the superior
performance of our approach for person ReID.
- Abstract(参考訳): 長期人物再同定(LT-ReID)はコンピュータビジョンや生体認証においてますます重要になっている。
本研究では,歩行者認識の域を超えてlt-reidを拡張し,広い時間領域における布の交換シナリオを考慮しつつ,より広い実世界の人間活動を含むことを目的とする。
この設定は、人間のポーズや衣服の多様性によって引き起こされる幾何学的ミスアライメントと外観の曖昧さによって、さらなる課題をもたらす。
これらの課題に対処するため、我々は3DInvarReIDの新しいアプローチを提案する。
一 立体服を着た人間の非同一性成分(目的、衣服の形状及びテクスチャ)から身元を遠ざけること。
(ii)正確な3d布身形状の再構築と人為リードの裸体形状の判別的特徴の学習
LT-ReIDの研究をよりよく評価するために,さまざまな人間の活動や衣服の変化を含む,CCDAと呼ばれる実世界のデータセットを収集した。
実験では,人物ReIDに対するアプローチの優れた性能を示す。
関連論文リスト
- Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Exploring Shape Embedding for Cloth-Changing Person Re-Identification
via 2D-3D Correspondences [9.487097819140653]
布を交換するReIDのための新しい形状埋め込みパラダイムを提案する。
2D-3D対応に基づく形状埋め込みパラダイムは、モデル全体の人体形状の理解を著しく向上させる。
衣料品着替え時のReID研究を促進するため,初となる大規模布質変化型ReIDデータセットである3D Dense Persons (DP3D) を構築した。
論文 参考訳(メタデータ) (2023-10-27T19:26:30Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Gait Recognition Using 3-D Human Body Shape Inference [22.385670309906352]
限られた画像から抽出した3次元形状を推定する手法を提案する。
RGB画像に先行する3次元形状から知識を伝達することにより,シルエットから3次元身体推論を学習する方法を提供する。
論文 参考訳(メタデータ) (2022-12-18T09:27:00Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Multigranular Visual-Semantic Embedding for Cloth-Changing Person
Re-identification [38.7806002518266]
本研究は, 布を交換するReIDのための新しいビジュアル・セマンティック・埋め込み・アルゴリズム(MVSE)を提案する。
衣服の変化のある人を完全に表現するために、多粒性特徴表現スキーム(MGR)を採用し、その後、布脱感ネットワーク(CDN)を設計する。
人的属性の整合に使用される視覚意味情報を得るために,部分意味整合ネットワーク(PSA)を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:14:44Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。