論文の概要: Event-based Video Person Re-identification via Cross-Modality and Temporal Collaboration
- arxiv url: http://arxiv.org/abs/2501.07296v1
- Date: Mon, 13 Jan 2025 13:03:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:10.549282
- Title: Event-based Video Person Re-identification via Cross-Modality and Temporal Collaboration
- Title(参考訳): クロスモダリティと時間的協調によるイベントベースビデオパーソンの再識別
- Authors: Renkai Li, Xin Yuan, Wei Liu, Xin Xu,
- Abstract要約: 本稿では,イベントベースのビデオ人物ReIDのためのCross-Modality and Temporal Collaboration(CMTC)ネットワークを提案する。
動作情報と外観情報を活用するための時間的協調モジュールを提案する。
実験の結果,この手法はイベントベースの映像人物ReIDのタスクにおいて,他者よりも優れていた。
- 参考スコア(独自算出の注目度): 17.74024884479591
- License:
- Abstract: Video-based person re-identification (ReID) has become increasingly important due to its applications in video surveillance applications. By employing events in video-based person ReID, more motion information can be provided between continuous frames to improve recognition accuracy. Previous approaches have assisted by introducing event data into the video person ReID task, but they still cannot avoid the privacy leakage problem caused by RGB images. In order to avoid privacy attacks and to take advantage of the benefits of event data, we consider using only event data. To make full use of the information in the event stream, we propose a Cross-Modality and Temporal Collaboration (CMTC) network for event-based video person ReID. First, we design an event transform network to obtain corresponding auxiliary information from the input of raw events. Additionally, we propose a differential modality collaboration module to balance the roles of events and auxiliaries to achieve complementary effects. Furthermore, we introduce a temporal collaboration module to exploit motion information and appearance cues. Experimental results demonstrate that our method outperforms others in the task of event-based video person ReID.
- Abstract(参考訳): ビデオ監視アプリケーションへの応用により、ビデオベースの人物識別(ReID)の重要性が高まっている。
ビデオベースの人物ReIDにおけるイベントを利用することで、連続したフレーム間でより多くの動き情報を提供し、認識精度を向上させることができる。
従来のアプローチでは、ビデオパーソンのReIDタスクにイベントデータを導入することで支援されてきたが、RGBイメージによるプライバシー漏洩問題を回避することはできない。
プライバシ攻撃を避け、イベントデータの利点を活用するために、イベントデータのみを使用することを検討する。
イベントストリームの情報をフル活用するために,イベントベースのビデオパーソンReIDのためのCross-Modality and Temporal Collaboration(CMTC)ネットワークを提案する。
まず、生イベントの入力から対応する補助情報を得るイベント変換ネットワークを設計する。
さらに,イベントと補助的役割のバランスを保ち,相補的な効果を達成するために,差分モダリティ協調モジュールを提案する。
さらに,動作情報や外観情報を活用するための時間的協調モジュールも導入する。
実験の結果,この手法はイベントベースの映像人物ReIDのタスクにおいて,他者よりも優れていた。
関連論文リスト
- Finding the Trigger: Causal Abductive Reasoning on Video Events [59.188208873301015]
Causal Abductive Reasoning on Video Events (CARVE)は、ビデオ内のイベント間の因果関係を特定する。
本稿では、時間空間と意味空間における映像イベントの関係を調査する因果イベント関係ネットワーク(CERN)を提案する。
論文 参考訳(メタデータ) (2025-01-16T05:39:28Z) - Generating Event-oriented Attribution for Movies via Two-Stage Prefix-Enhanced Multimodal LLM [47.786978666537436]
本稿では,2段階の事前修正強化MLLM (TSPE) アプローチを提案する。
局所的な段階では、1つのクリップ内の関連するマルチモーダル情報にフォーカスするようモデルに誘導する対話対応プレフィックスを導入する。
グローバルな段階では、推論知識グラフを用いて関連するイベント間の接続を強化する。
論文 参考訳(メタデータ) (2024-09-14T08:30:59Z) - EA-VTR: Event-Aware Video-Text Retrieval [97.30850809266725]
Event-Aware Video-Text Retrievalモデルは、優れたビデオイベント認識を通じて、強力なビデオテキスト検索能力を実現する。
EA-VTRはフレームレベルとビデオレベルの視覚表現を同時にエンコードすることができ、詳細なイベント内容と複雑なイベントの時間的相互アライメントを可能にする。
論文 参考訳(メタデータ) (2024-07-10T09:09:58Z) - Bilateral Event Mining and Complementary for Event Stream Super-Resolution [28.254644673666903]
Event Stream Super-Resolution (ESR) は、イベントストリームにおける空間分解能の不足に対処することを目的としている。
両イベントマイニング・補完ネットワーク(BMCNet)を提案する。
本手法は,オブジェクト認識やビデオ再構成などのイベントベース下流タスクの性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-16T12:16:25Z) - Event-aware Video Corpus Moment Retrieval [79.48249428428802]
Video Corpus Moment Retrieval(VCMR)は、未編集ビデオの膨大なコーパス内の特定の瞬間を特定することに焦点を当てた、実用的なビデオ検索タスクである。
VCMRの既存の方法は、典型的にはフレーム対応のビデオ検索に依存し、クエリとビデオフレーム間の類似性を計算して、ビデオをランク付けする。
本研究では,ビデオ検索の基本単位として,ビデオ内のイベントを明示的に活用するモデルであるEventFormerを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:55:20Z) - Person Re-Identification without Identification via Event Anonymization [23.062038973576296]
ディープラーニングは、イベントカメラからのイメージを高い忠実度で再構築することができ、イベントベースのビジョンアプリケーションに対するプライバシーに対する潜在的な脅威を再導入した。
本稿では,プライバシを保護し,人物ReIdのような下流タスクを実行するという2つの目的のために,エンドツーエンドのネットワークアーキテクチャを共同で提案する。
論文 参考訳(メタデータ) (2023-08-08T17:04:53Z) - A Unified Framework for Event-based Frame Interpolation with Ad-hoc Deblurring in the Wild [72.0226493284814]
本稿では,デブロリングアドホックを行うイベントベースフレームの統一フレームワークを提案する。
我々のネットワークは、フレーム上の従来の最先端の手法、単一画像のデブロアリング、および両者のジョイントタスクを一貫して上回ります。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - Unifying Event Detection and Captioning as Sequence Generation via
Pre-Training [53.613265415703815]
本稿では,イベント検出とキャプションのタスク間関連性を高めるための,事前学習と微調整の統合フレームワークを提案する。
我々のモデルは最先端の手法よりも優れており、大規模ビデオテキストデータによる事前学習ではさらに向上できる。
論文 参考訳(メタデータ) (2022-07-18T14:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。