論文の概要: Recurrent Neural Networks for video object detection
- arxiv url: http://arxiv.org/abs/2010.15740v1
- Date: Thu, 29 Oct 2020 16:40:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:44:40.428600
- Title: Recurrent Neural Networks for video object detection
- Title(参考訳): ビデオ物体検出のためのリカレントニューラルネットワーク
- Authors: Ahmad B Qasim, Arnd Pettirsch
- Abstract要約: この研究は異なる方法、特にビデオ内のオブジェクトを検出するためにリカレントニューラルネットワークを使用するものを比較する。
我々は,異なるフレームの特徴マップをリカレントユニットに供給する特徴ベース手法と,リカレントユニットにクラス確率を持つバウンディングボックスをリカレントユニットに供給するボックスレベル手法と,フローネットワークを使用するメソッドとを区別する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: There is lots of scientific work about object detection in images. For many
applications like for example autonomous driving the actual data on which
classification has to be done are videos. This work compares different methods,
especially those which use Recurrent Neural Networks to detect objects in
videos. We differ between feature-based methods, which feed feature maps of
different frames into the recurrent units, box-level methods, which feed
bounding boxes with class probabilities into the recurrent units and methods
which use flow networks. This study indicates common outcomes of the compared
methods like the benefit of including the temporal context into object
detection and states conclusions and guidelines for video object detection
networks.
- Abstract(参考訳): 画像中の物体検出には多くの科学的研究がある。
例えば、自律運転のような多くのアプリケーションでは、分類が必要な実際のデータはビデオである。
この研究は異なる方法、特にビデオ内のオブジェクトを検出するためにリカレントニューラルネットワークを使用するものを比較する。
我々は,異なるフレームの特徴マップをリカレントユニットに供給する特徴ベース手法と,リカレントユニットにクラス確率を持つバウンディングボックスをリカレントユニットに供給するボックスレベル手法と,フローネットワークを使用するメソッドとを区別する。
本研究は、時間的文脈をオブジェクト検出に含め、映像オブジェクト検出ネットワークの結論とガイドラインを述べるなど、比較手法の一般的な結果を示す。
関連論文リスト
- Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Spatio-Temporal Perturbations for Video Attribution [33.19422909074655]
この属性法は、不透明なニューラルネットワークを視覚的に解釈するための方向を提供する。
本稿では,多様な映像理解ネットワークに適合する汎用属性法について検討する。
本稿では,新たに提案した信頼度測定によって検証される信頼性のある客観的指標について紹介する。
論文 参考訳(メタデータ) (2021-09-01T07:44:16Z) - JOKR: Joint Keypoint Representation for Unsupervised Cross-Domain Motion
Retargeting [53.28477676794658]
ビデオにおける教師なしの動作は ディープ・ニューラル・ネットワークによって 大幅に進歩しました
JOKR(Joint Keypoint Representation)は、オブジェクトの事前やデータ収集を必要とせずに、ソースとターゲットのビデオの両方を処理する。
本手法は質的かつ定量的に評価し,異なる動物,異なる花,人間など,さまざまなクロスドメインシナリオを扱うことを示す。
論文 参考訳(メタデータ) (2021-06-17T17:32:32Z) - Issues in Object Detection in Videos using Common Single-Image CNNs [0.0]
物体検出は、産業プロセス、医療画像分析、自動運転車などの多くの用途で使われている。
自動運転車のようなアプリケーションにとって、オブジェクト検出システムはビデオ内の複数のフレームを通してオブジェクトを識別できることが重要である。
オブジェクト検出には多くのニューラルネットワークが使われており、もしフレーム間でオブジェクトを接続する方法があったら、これらの問題は排除される可能性がある。
データセットは、連続するビデオフレームを表現し、接地構造層と一致するイメージで作成されなければならない。
論文 参考訳(メタデータ) (2021-05-26T20:33:51Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Learning to associate detections for real-time multiple object tracking [0.0]
本研究では, ニューラルネットワークを用いて, 検出に使用可能な類似性関数を学習する。
提案したトラッカーは最先端の手法で得られた結果と一致し、ベースラインとして使用される最近の類似手法よりも58%高速に動作している。
論文 参考訳(メタデータ) (2020-07-12T17:08:41Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Video Contents Understanding using Deep Neural Networks [0.0]
複数のクラスにまたがるビデオフレームシーケンスを分類するトランスファーラーニングの新たな応用を提案する。
この表現は、ディープニューラルネットワーク(DNN)の出現によって達成される
論文 参考訳(メタデータ) (2020-04-29T05:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。