論文の概要: Video-based Person Re-Identification using Gated Convolutional Recurrent
Neural Networks
- arxiv url: http://arxiv.org/abs/2003.09717v1
- Date: Sat, 21 Mar 2020 18:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:06:46.979746
- Title: Video-based Person Re-Identification using Gated Convolutional Recurrent
Neural Networks
- Title(参考訳): Gated Convolutional Recurrent Neural Networks を用いた映像に基づく人物再同定
- Authors: Yang Feng, Yu Wang, Jiebo Luo
- Abstract要約: 本稿では,ディープニューラルネットワークに新しいゲーティング機構を導入する。
我々のゲーティングメカニズムは、人物の再識別に役立つ領域を学習し、これらの領域をゲートを通過させる。
2つの主要なデータセットに対する実験結果は、提案したゲーティング機構による性能改善を示す。
- 参考スコア(独自算出の注目度): 89.70701173600742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been successfully applied to solving the
video-based person re-identification problem with impressive results reported.
The existing networks for person re-id are designed to extract discriminative
features that preserve the identity information. Usually, whole video frames
are fed into the neural networks and all the regions in a frame are equally
treated. This may be a suboptimal choice because many regions, e.g., background
regions in the video, are not related to the person. Furthermore, the person of
interest may be occluded by another person or something else. These unrelated
regions may hinder person re-identification. In this paper, we introduce a
novel gating mechanism to deep neural networks. Our gating mechanism will learn
which regions are helpful for person re-identification and let these regions
pass the gate. The unrelated background regions or occluding regions are
filtered out by the gate. In each frame, the color channels and optical flow
channels provide quite different information. To better leverage such
information, we generate one gate using the color channels and another gate
using the optical flow channels. These two gates are combined to provide a more
reliable gate with a novel fusion method. Experimental results on two major
datasets demonstrate the performance improvements due to the proposed gating
mechanism.
- Abstract(参考訳): ディープニューラルネットワークは、ビデオベースの人物識別問題の解決に成功している。
人身認証のための既存のネットワークは、識別情報を保持する識別的特徴を抽出するように設計されている。
通常、ビデオフレーム全体がニューラルネットワークに入力され、フレーム内のすべての領域が同じように扱われる。
これは、ビデオの背景領域など多くの領域が人間とは関係がないため、亜最適選択であるかもしれない。
さらに、利害関係者は、他人又は他の者によって拘束されることがある。
これらの非関連領域は、人物の再識別を妨げる可能性がある。
本稿では,ディープニューラルネットワークに対する新たなゲーティング機構を提案する。
我々のゲーティングメカニズムは、人物の再識別に役立つ領域を学習し、これらの領域をゲートを通過させる。
無関係な背景領域またはオクルディング領域はゲートによってフィルタリングされる。
各フレームでは、カラーチャネルとオプティカルフローチャネルは全く異なる情報を提供する。
このような情報をよりよく活用するために、色チャネルと光流チャネルを用いて1つのゲートを生成する。
これら2つのゲートを組み合わせることで、より信頼性の高いゲートと新しい融合方式を提供する。
2つの主要なデータセットの実験結果は、提案したゲーティング機構による性能改善を示す。
関連論文リスト
- 2D bidirectional gated recurrent unit convolutional Neural networks for end-to-end violence detection In videos [0.0]
本稿では,双方向Gated Recurrent Unit (BiGRU) と2次元畳み込みニューラルネットワーク (CNN) を組み合わせて,ビデオシーケンス中の暴力を検出するアーキテクチャを提案する。
CNNは各フレームから空間特性を抽出し、BiGRUは複数のフレームからCNN抽出特徴を用いて時間的および局所的な運動特性を抽出する。
論文 参考訳(メタデータ) (2024-09-11T19:36:12Z) - Violence detection in videos using deep recurrent and convolutional neural networks [0.0]
繰り返しニューラルネットワーク(RNN)と2次元畳み込みニューラルネットワーク(2D CNN)を組み合わせた暴力検出のためのディープラーニングアーキテクチャを提案する。
ビデオフレームに加えて、キャプチャーシーケンスを用いて計算した光フローを用いる。
提案手法は最先端技術と同じレベルに達し,時折それらを上回るものとなる。
論文 参考訳(メタデータ) (2024-09-11T19:21:51Z) - Adversarial Self-Attack Defense and Spatial-Temporal Relation Mining for
Visible-Infrared Video Person Re-Identification [24.9205771457704]
本稿では,新しい視点,すなわち対人自己防衛と時空間的関係のマイニングから,新しい可視赤外ビデオパーソン re-ID 手法を提案する。
提案手法は,大規模なクロスモダリティビデオデータセットにおいて魅力的な性能を示す。
論文 参考訳(メタデータ) (2023-07-08T05:03:10Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Channel-wise Alignment for Adaptive Object Detection [66.76486843397267]
遺伝的物体検出は、ディープ畳み込みニューラルネットワークの開発によって大いに促進されている。
このタスクの既存の方法は、通常、画像全体や関心の対象に基づいて、ハイレベルなアライメントに注意を向ける。
本稿では,チャネルワイドアライメント(チャネルワイドアライメント)という,まったく異なる観点からの適応を実現する。
論文 参考訳(メタデータ) (2020-09-07T02:42:18Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Hybrid Channel Based Pedestrian Detection [15.696919306737321]
そこで我々は,手作り機能とCNN機能を組み合わせたRPN+BFフレームワークを拡張した新しい歩行者検出フレームワークを提案する。
本実験により,VGG-16ネットから抽出したCNN特徴よりも,手工芸品が検出精度が高いことがわかった。
論文 参考訳(メタデータ) (2019-12-28T09:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。