論文の概要: Temporal Feature Networks for CNN based Object Detection
- arxiv url: http://arxiv.org/abs/2103.12213v1
- Date: Mon, 22 Mar 2021 22:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:56:57.656335
- Title: Temporal Feature Networks for CNN based Object Detection
- Title(参考訳): CNNに基づく物体検出のための時間的特徴ネットワーク
- Authors: Michael Weber, Tassilo Wald, J. Marius Z\"ollner
- Abstract要約: 我々は,建築調査から得られた知見に基づく時間的特徴ネットワークを提案する。
このネットワークは、これらのイメージに時間情報がないため、ImageNet情報に基づく事前トレーニングなしで、ゼロからトレーニングされる。
このネットワークに基づくオブジェクト検出器は、KITTIオブジェクト検出データセットの評価におけるベースラインおよび競合結果として、非時間対応に対して評価される。
- 参考スコア(独自算出の注目度): 4.0960285904459415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For reliable environment perception, the use of temporal information is
essential in some situations. Especially for object detection, sometimes a
situation can only be understood in the right perspective through temporal
information. Since image-based object detectors are currently based almost
exclusively on CNN architectures, an extension of their feature extraction with
temporal features seems promising.
Within this work we investigate different architectural components for a
CNN-based temporal information extraction. We present a Temporal Feature
Network which is based on the insights gained from our architectural
investigations. This network is trained from scratch without any ImageNet
information based pre-training as these images are not available with temporal
information. The object detector based on this network is evaluated against the
non-temporal counterpart as baseline and achieves competitive results in an
evaluation on the KITTI object detection dataset.
- Abstract(参考訳): 信頼性の高い環境認識には,時間的情報の利用が不可欠である。
特に物体検出では、時間的情報を通して適切な視点でのみ状況を理解することができる。
現在、画像ベースのオブジェクト検出器はCNNアーキテクチャのみに基づいているため、時間的特徴による特徴抽出の拡張が期待できる。
本研究では,CNNに基づく時間情報抽出のための異なるアーキテクチャ要素について検討する。
本稿では,建築調査から得られた知見に基づく時間的特徴ネットワークを提案する。
このネットワークは、これらのイメージに時間情報がないため、ImageNet情報に基づく事前トレーニングなしで、ゼロからトレーニングされる。
このネットワークに基づく対象検出器は、非時間的対象をベースラインとして評価し、KITTIオブジェクト検出データセットの評価において競合結果を得る。
関連論文リスト
- CNN-Based Structural Damage Detection using Time-Series Sensor Data [0.0]
本研究では,新しいコナールニューラルネットワーク(CNN)アルゴリズムを用いて,構造損傷検出の革新的なアプローチを提案する。
時系列データは、提案したニューラルネットワークを用いて2つのカテゴリに分けられる。
その結果,新しいCNNアルゴリズムは構造劣化の発見に極めて正確であることが示唆された。
論文 参考訳(メタデータ) (2023-11-07T11:57:33Z) - Real Time Object Detection System with YOLO and CNN Models: A Review [7.767212366020168]
この調査は、リアルタイムオブジェクト検出の方向にあるYOLOと畳み込みニューラルネットワーク(CNN)に関するものだ。
YOLOは、他のオブジェクト検出モデルよりも精度の低下なしに、より効果的にオブジェクト表現を一般化する。
CNNアーキテクチャモデルは、任意の画像内のハイライトを排除し、オブジェクトを識別する機能を持つ。
論文 参考訳(メタデータ) (2022-07-23T11:00:11Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - Temporal and Object Quantification Networks [95.64650820186706]
複雑な関係時間事象を認識できる構造バイアスを持つニューロシンボリックネットワークを新たに提案する。
我々は、TOQ-Netsが、少量のデータから、トレーニング中に存在したものよりも多くのオブジェクトを含むシナリオ、入力シーケンスの時間的ワープまでを一般化できることを実証した。
論文 参考訳(メタデータ) (2021-06-10T16:18:21Z) - ST-HOI: A Spatial-Temporal Baseline for Human-Object Interaction
Detection in Videos [91.29436920371003]
時空間HoI検出(ST-HOI)という,シンプルで効果的なアーキテクチャを提案する。
我々は、人や物体の軌跡、正しく位置付けられた視覚的特徴、空間的マスキングのポーズ特徴などの時間的情報を利用する。
我々は、VidHOIと呼ばれる新しいビデオHOIベンチマークを構築し、提案手法は安定したベースラインとして機能する。
論文 参考訳(メタデータ) (2021-05-25T07:54:35Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - An Analysis of Deep Object Detectors For Diver Detection [19.14344722263869]
ビデオから得られたダイバーの注釈付き画像を約105,000枚作成する。
私たちは、Mobilenetを使ったSSD、Faster R-CNN、YOLOなど、オブジェクト検出のための最先端のディープニューラルネットワークをトレーニングしています。
この結果に基づき、ロボットのリアルタイム応用にTiny-YOLOv4を推奨する。
論文 参考訳(メタデータ) (2020-11-25T01:50:32Z) - Fast Video Salient Object Detection via Spatiotemporal Knowledge
Distillation [20.196945571479002]
本稿では,映像の有能な物体検出に適した軽量ネットワークを提案する。
具体的には,空間的特徴を洗練させるために,サリエンシガイダンスの埋め込み構造と空間知識蒸留を組み合わせた。
時間的側面において,ネットワークが頑健な時間的特徴を学習することのできる時間的知識蒸留戦略を提案する。
論文 参考訳(メタデータ) (2020-10-20T04:48:36Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。