論文の概要: Graph CNN for Moving Object Detection in Complex Environments from
Unseen Videos
- arxiv url: http://arxiv.org/abs/2207.06440v1
- Date: Wed, 13 Jul 2022 18:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:36:41.260706
- Title: Graph CNN for Moving Object Detection in Complex Environments from
Unseen Videos
- Title(参考訳): 錯視映像からの複雑な環境における物体検出のためのグラフCNN
- Authors: Jhony H. Giraldo, Sajid Javed, Naoufel Werghi, Thierry Bouwmans
- Abstract要約: 移動物体検出(MOD)は多くのコンピュータビジョンアプリケーションにとって基本的なステップである。
深層学習法は,MODと競争性能の両立に成功している。
本研究では,グラフ畳み込みニューラルネットワーク(GCNN)を用いたノード分類問題としてMODの問題を提起する。
- 参考スコア(独自算出の注目度): 13.530860337575637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving Object Detection (MOD) is a fundamental step for many computer vision
applications. MOD becomes very challenging when a video sequence captured from
a static or moving camera suffers from the challenges: camouflage, shadow,
dynamic backgrounds, and lighting variations, to name a few. Deep learning
methods have been successfully applied to address MOD with competitive
performance. However, in order to handle the overfitting problem, deep learning
methods require a large amount of labeled data which is a laborious task as
exhaustive annotations are always not available. Moreover, some MOD deep
learning methods show performance degradation in the presence of unseen video
sequences because the testing and training splits of the same sequences are
involved during the network learning process. In this work, we pose the problem
of MOD as a node classification problem using Graph Convolutional Neural
Networks (GCNNs). Our algorithm, dubbed as GraphMOD-Net, encompasses instance
segmentation, background initialization, feature extraction, and graph
construction. GraphMOD-Net is tested on unseen videos and outperforms
state-of-the-art methods in unsupervised, semi-supervised, and supervised
learning in several challenges of the Change Detection 2014 (CDNet2014) and
UCSD background subtraction datasets.
- Abstract(参考訳): 移動物体検出(MOD)は多くのコンピュータビジョンアプリケーションにとって基本的なステップである。
MODは、静止カメラや動いているカメラから撮影したビデオシーケンスが、カモフラージュ、シャドウ、動的背景、照明のバリエーションといった課題に悩まされると、非常に困難になる。
深層学習法は,MODと競争性能の両立に成功している。
しかし、過度に適合する問題に対処するためには、徹底的なアノテーションが常に利用できないため、面倒な作業である大量のラベル付きデータを必要とする。
さらに,MOD深層学習手法では,ネットワーク学習過程において同一シーケンスのテストとトレーニングの分割が関与するため,未確認映像シーケンスの存在下での性能劣化を示す。
本研究では,グラフ畳み込みニューラルネットワーク(GCNN)を用いたノード分類問題としてMODの問題を提起する。
GraphMOD-Netと呼ばれる我々のアルゴリズムは、インスタンスセグメンテーション、バックグラウンド初期化、特徴抽出、グラフ構築を含む。
graphmod-netは未発見の動画上でテストされ、未教師なし、半教師なし、教師なし学習における最先端の手法を上回っており、change detection 2014 (cdnet2014) とucsd background subtractionデータセットのいくつかの課題に挑戦している。
関連論文リスト
- MissionGNN: Hierarchical Multimodal GNN-based Weakly Supervised Video Anomaly Recognition with Mission-Specific Knowledge Graph Generation [5.0923114224599555]
本稿では,新しい階層グラフニューラルネットワーク(GNN)モデルであるMissionGNNを紹介する。
提案手法は,大規模マルチモーダルモデル上での重勾配計算を回避し,従来の手法の限界を回避する。
我々のモデルは,従来のセグメンテーションベースやマルチモーダルアプローチの制約を伴わずに,リアルタイムビデオ解析のための実用的で効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-27T01:09:07Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - Dense Video Object Captioning from Disjoint Supervision [77.47084982558101]
本稿では,高密度ビデオオブジェクトキャプションのための新しいタスクとモデルを提案する。
このタスクは、ビデオにおける空間的および時間的局所化を統一する。
我々は、この新しいタスクの強力なベースラインにおいて、我々のモデルがどのように改善されているかを示す。
論文 参考訳(メタデータ) (2023-06-20T17:57:23Z) - Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection [0.0]
コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
論文 参考訳(メタデータ) (2022-05-20T18:58:13Z) - Graph Representation Learning for Multi-Task Settings: a Meta-Learning
Approach [5.629161809575013]
メタ学習に基づくグラフ表現学習のための新しい学習戦略を提案する。
本手法は,複数タスクの同時実行学習において発生する問題を回避する。
我々は,本手法で訓練したモデルが生成した埋め込みを,単一タスクとマルチタスクの両エンドツーエンドモデルに匹敵する,あるいは驚くほど高いパフォーマンスで複数のタスクを実行できることを示す。
論文 参考訳(メタデータ) (2022-01-10T12:58:46Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Recognizing Actions in Videos from Unseen Viewpoints [80.6338404141284]
本研究では,現在の畳み込みニューラルネットワークモデルでは,トレーニングデータに存在しないカメラ視点からの動作を認識できないことを示す。
視認不能な認識のための新しいデータセットを導入し、視点不変表現を学習するアプローチ能力を示す。
論文 参考訳(メタデータ) (2021-03-30T17:17:54Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z) - GraphBGS: Background Subtraction via Recovery of Graph Signals [2.5889737226898437]
Graph BackGround Subtraction (GraphBGS)は、グラフ信号の回復理論から着想を得た半教師付きアルゴリズムである。
我々のアルゴリズムは、静的・動画像の両方で競合する結果を得る一方で、深層学習法よりもラベル付きデータを必要としないという利点がある。
論文 参考訳(メタデータ) (2020-01-17T16:17:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。