論文の概要: Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network
- arxiv url: http://arxiv.org/abs/2212.10570v1
- Date: Tue, 20 Dec 2022 16:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:12:02.182282
- Title: Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network
- Title(参考訳): カスケード残差畳み込みニューラルネットワークを用いたビデオセグメンテーション学習
- Authors: Daniel F. S. Santos, Rafael G. Pires, Danilo Colombo, Jo\~ao P. Papa
- Abstract要約: 本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video segmentation consists of a frame-by-frame selection process of
meaningful areas related to foreground moving objects. Some applications
include traffic monitoring, human tracking, action recognition, efficient video
surveillance, and anomaly detection. In these applications, it is not rare to
face challenges such as abrupt changes in weather conditions, illumination
issues, shadows, subtle dynamic background motions, and also camouflage
effects. In this work, we address such shortcomings by proposing a novel deep
learning video segmentation approach that incorporates residual information
into the foreground detection learning process. The main goal is to provide a
method capable of generating an accurate foreground detection given a grayscale
video. Experiments conducted on the Change Detection 2014 and on the private
dataset PetrobrasROUTES from Petrobras support the effectiveness of the
proposed approach concerning some state-of-the-art video segmentation
techniques, with overall F-measures of $\mathbf{0.9535}$ and $\mathbf{0.9636}$
in the Change Detection 2014 and PetrobrasROUTES datasets, respectively. Such a
result places the proposed technique amongst the top 3 state-of-the-art video
segmentation methods, besides comprising approximately seven times less
parameters than its top one counterpart.
- Abstract(参考訳): ビデオセグメンテーションは、前景移動物体に関連する意味のある領域をフレーム単位で選択するプロセスからなる。
交通監視、人間の追跡、行動認識、効率的なビデオ監視、異常検出などのアプリケーションがある。
これらの応用において、気象条件の急激な変化、照明問題、影、微妙な動的背景運動、カモフラージュ効果などの課題に直面することは珍しくない。
本研究では,残余情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案することにより,このような問題点に対処する。
主な目的は、グレースケールの映像から正確なフォアグラウンド検出を生成する方法を提供することである。
変更検出2014とpetrobrasのプライベートデータセットであるpetrobrasroutesに関する実験は、変更検出2014とpetrobrasroutesデータセットにそれぞれ$\mathbf{0.9535}$と$\mathbf{0.9636}$のf-測定値を含む、最先端のビデオセグメンテーション技術に関する提案手法の有効性を支持している。
このような結果から,提案手法は,提案手法の約7分の1のパラメータを含むとともに,最先端ビデオセグメンテーション手法の上位3つに含まれている。
関連論文リスト
- Scene Change Detection Using Multiscale Cascade Residual Convolutional
Neural Networks [0.0]
シーン変化検出は、デジタル画像の画素を前景と背景領域に分割する処理問題である。
本研究では,Residual Processing Moduleを統合した畳み込みニューラルネットワークを用いた新しいマルチスケールResidual Processing Moduleを提案する。
2つの異なるデータセットで実施された実験は、提案手法の全体的な有効性をサポートし、それぞれが$boldsymbol0.9622$と$boldsymbol0.9664$ over Change Detection 2014とPetrobrasROUTESデータセットの全体的な有効性を達成する。
論文 参考訳(メタデータ) (2022-12-20T16:48:51Z) - Part-level Action Parsing via a Pose-guided Coarse-to-Fine Framework [108.70949305791201]
パートレベルのアクションパーシング(PAP)は、ビデオレベルのアクションを予測するだけでなく、ビデオ内の各人に対するフレームレベルのきめ細かいアクションやインタラクションを認識することを目的としている。
特に,本フレームワークは,まず入力ビデオの映像レベルのクラスを予測し,次に身体部位をローカライズし,部分レベルの動作を予測する。
我々のフレームワークは最先端のパフォーマンスを達成し、既存の手法を31.10%のROCスコアで上回ります。
論文 参考訳(メタデータ) (2022-03-09T01:30:57Z) - Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - CDN-MEDAL: Two-stage Density and Difference Approximation Framework for
Motion Analysis [3.337126420148156]
本稿では,2つの畳み込みニューラルネットワークを用いた2段階変化検出手法を提案する。
筆者らの2段階フレームワークは, 約3.5Kのパラメータを含むが, 複雑な動きパターンに対する迅速な収束は維持されている。
論文 参考訳(メタデータ) (2021-06-07T16:39:42Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Detecting Forged Facial Videos using convolutional neural network [0.0]
我々は,より小さな(少ないパラメータで学習する)畳み込みニューラルネットワーク(CNN)を用いて,偽ビデオ検出のためのデータ駆動型アプローチを提案する。
提案手法の有効性を検証するため,FaceForensicsの公開データセットを用いて,フレームベースとビデオベースの両方の結果を詳細に検討した。
論文 参考訳(メタデータ) (2020-05-17T19:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。