論文の概要: 3DFR: A Swift 3D Feature Reductionist Framework for Scene Independent
Change Detection
- arxiv url: http://arxiv.org/abs/1912.11891v1
- Date: Thu, 26 Dec 2019 16:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 08:10:36.186990
- Title: 3DFR: A Swift 3D Feature Reductionist Framework for Scene Independent
Change Detection
- Title(参考訳): 3DFR: シーン独立変更検出のためのSwift 3D機能削減フレームワーク
- Authors: Murari Mandal, Vansh Dhar, Abhishek Mishra, Santosh Kumar Vipparthi
- Abstract要約: 本稿では,シーン独立型変化検出のための3DFRフレームワークを提案する。
3DFRフレームワークは、3つの機能ストリームで構成されている: 迅速な3D機能リダミストストリーム(AvFeat)、現代機能ストリーム(ConFeat)、時間中央機能マップ。
その結果、提案フレームワークは時間的変化を検知するだけでなく、高レベルの外観特徴も学習する。
- 参考スコア(独自算出の注目度): 13.198039030423718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose an end-to-end swift 3D feature reductionist
framework (3DFR) for scene independent change detection. The 3DFR framework
consists of three feature streams: a swift 3D feature reductionist stream
(AvFeat), a contemporary feature stream (ConFeat) and a temporal median feature
map. These multilateral foreground/background features are further refined
through an encoder-decoder network. As a result, the proposed framework not
only detects temporal changes but also learns high-level appearance features.
Thus, it incorporates the object semantics for effective change detection.
Furthermore, the proposed framework is validated through a scene independent
evaluation scheme in order to demonstrate the robustness and generalization
capability of the network. The performance of the proposed method is evaluated
on the benchmark CDnet 2014 dataset. The experimental results show that the
proposed 3DFR network outperforms the state-of-the-art approaches.
- Abstract(参考訳): 本稿では,シーン独立型変化検出のための3次元特徴量削減フレームワーク(3DFR)を提案する。
3DFRフレームワークは、3つの機能ストリームで構成されている: 迅速な3D機能リダミストストリーム(AvFeat)、現代機能ストリーム(ConFeat)、時間中央機能マップ。
これらの多面的フォアグラウンド/バックグラウンド機能はエンコーダ/デコーダネットワークによってさらに洗練される。
その結果,提案フレームワークは時間変化を検知するだけでなく,高レベルの外観特徴を学習する。
したがって、オブジェクトセマンティクスを組み込んで、効果的な変更検出を行う。
さらに,ネットワークの堅牢性と一般化能力を示すために,シーン独立評価方式を用いて提案手法の有効性を検証した。
提案手法の性能はベンチマークcdnet 2014データセットで評価される。
実験の結果,提案した3DFRネットワークは最先端のアプローチよりも優れていた。
関連論文リスト
- FastOcc: Accelerating 3D Occupancy Prediction by Fusing the 2D
Bird's-Eye View and Perspective View [46.81548000021799]
自律運転において、3D占有率予測は、より包括的な3Dシーンの理解のために、ボクセル的なステータスとセマンティックラベルを出力する。
近年,ビュートランスフォーメーション技術,地味ラベル生成,精巧なネットワーク設計など,この課題のさまざまな側面を幅広く研究している。
FastOccと呼ばれる新しい手法が提案され、精度を維持しながらモデルを高速化する。
Occ3D-nuScenesベンチマークの実験は、FastOccが高速な推論速度を達成することを示した。
論文 参考訳(メタデータ) (2024-03-05T07:01:53Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation [9.513467995188634]
AOP-NetはLiDARベースのマルチタスクフレームワークで、3Dオブジェクトの検出とパノプティクスのセグメンテーションを組み合わせたものである。
AOP-Netは、nuScenesベンチマークにおける3Dオブジェクト検出とパノプティクスセグメンテーションの両タスクについて、最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-02T05:31:53Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Improving 3D Object Detection with Channel-wise Transformer [58.668922561622466]
我々は手作りの最小限の設計で2段階の3Dオブジェクト検出フレームワーク(CT3D)を提案する。
CT3Dは、提案対応の埋め込みとチャンネルワイドコンテキストアグリゲーションを同時に行う。
これはKITTIテスト3D検出ベンチマークで中等車カテゴリーで81.77%のAPを達成した。
論文 参考訳(メタデータ) (2021-08-23T02:03:40Z) - Real-time 3D Object Detection using Feature Map Flow [0.0]
深部ニューラルモデル推論(FMF)の異なる時間ステップからの時空間特徴写像アグリゲーションを考慮したリアルタイム3次元検出手法を提案する。
提案するアプローチは、3D検出センターベースのベースラインの品質を改善し、nuScenesとベンチマークでリアルタイムのパフォーマンスを提供する。
論文 参考訳(メタデータ) (2021-06-26T22:20:31Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。