論文の概要: MGPSN: Motion-Guided Pseudo Siamese Network for Indoor Video Head
Detection
- arxiv url: http://arxiv.org/abs/2110.03302v1
- Date: Thu, 7 Oct 2021 09:40:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-09 03:23:59.810442
- Title: MGPSN: Motion-Guided Pseudo Siamese Network for Indoor Video Head
Detection
- Title(参考訳): MGPSN:室内ビデオヘッド検出のためのモーションガイド方式Pseudo Siamese Network
- Authors: Kailai Sun, Xiaoteng Ma, Qianchuan Zhao, Peng Liu
- Abstract要約: 動作誘導型Pseudo Siamese Network for Indoor Video Head Detection (MGPSN)を提案する。
MGPSNは画素レベルの時空間情報を統合し、モデルを誘導して効果的な頭部特徴を抽出する。
群衆のBrainwashデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 6.061552465738301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Head detection in real-world videos is an important research topic in
computer vision. However, existing studies face some challenges in complex
scenes. The performance of head detectors deteriorates when objects which have
similar head appearance exist for indoor videos. Moreover, heads have small
scales and diverse poses, which increases the difficulty in detection. To
handle these issues, we propose Motion-Guided Pseudo Siamese Network for Indoor
Video Head Detection (MGPSN), an end-to-end model to learn the robust head
motion features. MGPSN integrates spatial-temporal information on pixel level,
guiding the model to extract effective head features. Experiments show that
MGPSN is able to suppress static objects and enhance motion instances. Compared
with previous methods, it achieves state-of-the-art performance on the crowd
Brainwash dataset. Different backbone networks and detectors are evaluated to
verify the flexibility and generality of MGPSN.
- Abstract(参考訳): 実世界のビデオにおける頭部検出はコンピュータビジョンにおいて重要な研究課題である。
しかし、既存の研究は複雑な場面でいくつかの課題に直面している。
頭部検出器の性能は、屋内ビデオに類似した頭部外見を持つ物体が存在すると劣化する。
さらに頭部には小さなスケールと多彩なポーズがあり、検出の困難さが増す。
これらの問題に対処するため,動作誘導Pseudo Siamese Network for Indoor Video Head Detection (MGPSN)を提案する。
MGPSNは画素レベルの時空間情報を統合し、モデルを誘導して効果的な頭部特徴を抽出する。
実験により、MGPSNは静的な物体を抑え、動きのインスタンスを増強できることが示された。
従来の方法と比較して、群衆のBrainwashデータセット上で最先端のパフォーマンスを達成する。
異なるバックボーンネットワークと検出器を評価し、MGPSNの柔軟性と汎用性を検証する。
関連論文リスト
- DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - HMD-NeMo: Online 3D Avatar Motion Generation From Sparse Observations [7.096701481970196]
ヘッドマウントデバイス(Head-Mounted Devices, HMD)は、通常、頭や手などの入力信号のみを提供する。
本研究は,手の一部しか見えなくても,可塑性かつ高精度な全身運動生成を実現する,最初の統一的アプローチであるHMD-NeMoを提案する。
論文 参考訳(メタデータ) (2023-08-22T08:07:12Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Application Of ADNN For Background Subtraction In Smart Surveillance
System [0.0]
動作検出にADNNアーキテクチャを使用したインテリジェントなビデオ監視システムを開発し,動作のみを含む部分で映像をトリムし,トリミングされた映像に対して異常検出を行う。
論文 参考訳(メタデータ) (2022-12-31T18:42:11Z) - Improving Unsupervised Video Object Segmentation with Motion-Appearance
Synergy [52.03068246508119]
IMASは、トレーニングや推論において手動のアノテーションを使わずに、主要オブジェクトをビデオに分割する手法である。
IMASはMotion-Appearance Synergyによる改良されたUVOSを実現する。
人間のアノテーションや手作りハイパーパラム特有のメトリクスで調整された重要なハイパーパラムのチューニングにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2022-12-17T06:47:30Z) - Adversarially Robust Video Perception by Seeing Motion [29.814393563282753]
ビデオモデルの脆弱性の1つの原因は、敵対的摂動下での正しい動きを認識できないことである。
人間の視覚システムにとって、動きが重要な要素であるという広範な証拠に触発され、知覚された動き情報を復元することで、モデルが何を見ているかを修正することを提案する。
我々の研究は、データから本質的な構造を用いることで、ロバストな映像認識アルゴリズムに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2022-12-13T02:25:33Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging [1.603589863010401]
行動認識コンピュータビジョンアルゴリズムは、自閉症に関連する行動の存在を検出するために使用できる。
ヘッドバンジ検出に適用した場合のアクティビティ認識における現在の特徴表現技術の利点と限界を文書化します。
時間分散畳み込みニューラルネットワークを用いて,ホームビデオのヘッドバンジを検出するコンピュータビジョン分類器を作成する。
論文 参考訳(メタデータ) (2021-01-10T05:37:05Z) - UNOC: Understanding Occlusion for Embodied Presence in Virtual Reality [12.349749717823736]
本稿では,内装体追跡のための新しいデータ駆動型フレームワークを提案する。
まず、体と指の両方の動作で、大規模なモーションキャプチャーデータセットを収集する。
次に, 被写体部を推定する深層ニューラルネットワークを学習し, 被写体部から被写体部を抽出し, 被写体部から被写体部を推定する。
論文 参考訳(メタデータ) (2020-11-12T09:31:09Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。