論文の概要: Feature Completion for Occluded Person Re-Identification
- arxiv url: http://arxiv.org/abs/2106.12733v1
- Date: Thu, 24 Jun 2021 02:40:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-26 05:32:48.532178
- Title: Feature Completion for Occluded Person Re-Identification
- Title(参考訳): 人物再同定のための特徴補完
- Authors: Ruibing Hou, Bingpeng Ma, Hong Chang, Xinqian Gu, Shiguang Shan and
Xilin Chen
- Abstract要約: RFCブロックは、機能空間の隠された領域のセマンティクスを復元することができる。
SRFCは、隠蔽領域の特徴を予測するために、非隠蔽領域からの長距離空間コンテキストを利用する。
TRFCモジュールは、長期の時間的コンテキストをキャプチャして、SRFCの予測を洗練します。
- 参考スコア(独自算出の注目度): 138.5671859358049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (reID) plays an important role in computer vision.
However, existing methods suffer from performance degradation in occluded
scenes. In this work, we propose an occlusion-robust block, Region Feature
Completion (RFC), for occluded reID. Different from most previous works that
discard the occluded regions, RFC block can recover the semantics of occluded
regions in feature space. Firstly, a Spatial RFC (SRFC) module is developed.
SRFC exploits the long-range spatial contexts from non-occluded regions to
predict the features of occluded regions. The unit-wise prediction task leads
to an encoder/decoder architecture, where the region-encoder models the
correlation between non-occluded and occluded region, and the region-decoder
utilizes the spatial correlation to recover occluded region features. Secondly,
we introduce Temporal RFC (TRFC) module which captures the long-term temporal
contexts to refine the prediction of SRFC. RFC block is lightweight, end-to-end
trainable and can be easily plugged into existing CNNs to form RFCnet.
Extensive experiments are conducted on occluded and commonly holistic reID
benchmarks. Our method significantly outperforms existing methods on the
occlusion datasets, while remains top even superior performance on holistic
datasets. The source code is available at
https://github.com/blue-blue272/OccludedReID-RFCnet.
- Abstract(参考訳): 人物再識別(reID)はコンピュータビジョンにおいて重要な役割を果たす。
しかし,既存の手法ではオクルードシーンの性能低下に苦しむ。
本研究では,隠蔽されたreIDに対して,隠蔽型ブロックであるRFC(Regional Feature Completion)を提案する。
occluded領域を破棄する以前のほとんどの作品とは異なり、rfcブロックは特徴空間におけるoccluded領域のセマンティクスを回復することができる。
まず、Spatial RFC (SRFC) モジュールを開発する。
SRFCは、非閉塞領域からの長距離空間コンテキストを利用して、閉鎖領域の特徴を予測する。
単位方向予測タスクは、領域エンコーダが非occluded領域とoccluded領域の相関をモデル化するエンコーダ/デコーダアーキテクチャとなり、領域デコーダは、空間相関を利用してoccluded領域の特徴を回復する。
次に、SRFCの予測を洗練させるために、長期の時間的コンテキストをキャプチャするTRFC(Temporal RFC)モジュールを紹介する。
RFCブロックは軽量でエンドツーエンドのトレーニングが可能で、既存のCNNに簡単にプラグインしてRFCnetを形成することができる。
occluded and common holistic reidベンチマークで広範な実験が行われている。
本手法はオクルージョンデータセットの既存手法を著しく上回り,総合的データセットでは最高性能を保ったままである。
ソースコードはhttps://github.com/blue-blue272/occludedreid-rfcnetで入手できる。
関連論文リスト
- LCP-Fusion: A Neural Implicit SLAM with Enhanced Local Constraints and Computable Prior [22.948360879064758]
LCP-Fusionは、局所的な制約が強化され、計算可能な事前計算が可能な、神経暗黙のSLAMシステムである。
提案手法は,既存のRGB-D暗黙SLAMよりも高精度な局所化精度と再構成整合性を実現する。
論文 参考訳(メタデータ) (2024-11-06T02:05:44Z) - Coarse-to-Fine Proposal Refinement Framework for Audio Temporal Forgery Detection and Localization [60.899082019130766]
本稿では、フレームレベル検出ネットワーク(FDN)と、音声の時間的偽造検出とローカライゼーションのための改良ネットワーク(PRN)を提案する。
FDNは、偽のフレーム間で情報的不整合の手がかりを抽出し、偽の領域を大まかに示すのに有用な識別的特徴を得る。
PRNは、FDNから派生した粗粒度の提案を洗練するために、信頼スコアと回帰オフセットを予測する責任がある。
論文 参考訳(メタデータ) (2024-07-23T15:07:52Z) - Decoupled Local Aggregation for Point Cloud Learning [12.810517967372043]
本稿では,局所的な集合から空間関係の明示的なモデリングを分離することを提案する。
本稿では,各学習段階で相対的な空間符号化が最初に形成される軽量な点ネットワークであるDeLAを提案する。
DeLAはScanObjectNNで90%以上、S3DIS Area 5で74% mIoUを達成した。
論文 参考訳(メタデータ) (2023-08-31T08:21:29Z) - Local-Global Temporal Difference Learning for Satellite Video
Super-Resolution [55.69322525367221]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - RFC-Net: Learning High Resolution Global Features for Medical Image
Segmentation on a Computational Budget [4.712700480142554]
本稿では,圧縮された計算空間における高解像度グローバルな特徴を学習するReceptive Field Chain Network (RFC-Net)を提案する。
提案実験により,RFC-Net が Kvasir および CVC-ClinicDB のPolyp セグメンテーションのベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-02-13T06:52:47Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - TINC: Tree-structured Implicit Neural Compression [30.26398911800582]
Inlicit Neural representation (INR) は、少数のパラメータを用いて、高い忠実度でターゲットシーンを記述することができる。
予備研究は、対象データにおける大域的あるいは局所的な相関のみを利用することができる。
本稿では,局所領域に対してコンパクトな表現を行うために,TINC(Tree-structured Implicit Neural Compression)を提案する。
論文 参考訳(メタデータ) (2022-11-12T15:39:07Z) - Domain Adaptive Object Detection via Feature Separation and Alignment [11.4768983507572]
対向型ドメイン適応オブジェクト検出法(DAOD)が急速に開発されている。
本稿では,grey-scale feature separation (gsfs) モジュール,local-global feature alignment (lgfa) モジュール,および region-instance-level alignment (rila) モジュールからなる特徴分離アライメントネットワーク (fsanet) を確立する。
私達のFSANetはターゲット ドメインの検出でよりよい性能を達成し、最先端の方法を超過します。
論文 参考訳(メタデータ) (2020-12-16T01:44:34Z) - LRC-Net: Learning Discriminative Features on Point Clouds by Encoding
Local Region Contexts [65.79931333193016]
本稿では,LRC-Net(Local-Region-Context Network)を提案する。
LRC-Netは、局所領域内および周辺領域間の微粒なコンテキストを同時に符号化する。
その結果, LRC-Netは形状分類や形状分割の応用において最先端の手法と競合することがわかった。
論文 参考訳(メタデータ) (2020-03-18T14:34:08Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。