論文の概要: MotionSC: Data Set and Network for Real-Time Semantic Mapping in Dynamic
Environments
- arxiv url: http://arxiv.org/abs/2203.07060v1
- Date: Mon, 14 Mar 2022 13:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 00:55:18.242343
- Title: MotionSC: Data Set and Network for Real-Time Semantic Mapping in Dynamic
Environments
- Title(参考訳): MotionSC:動的環境におけるリアルタイム意味マッピングのためのデータセットとネットワーク
- Authors: Joey Wilson, Jingyu Song, Yuewei Fu, Arthur Zhang, Andrew Capodieci,
Paramsothy Jayakumar, Kira Barton, and Maani Ghaffari
- Abstract要約: この研究は、正確で完全な動的シーンを持つ新しい屋外データセットを作成することで、意味シーン補完(SSC)データのギャップに対処する。
我々は、最先端のオープンソースネットワークからSSCベースラインを作成し、リアルタイムな局所的セマンティックマッピングアルゴリズムであるMotionSCをベンチマークで構築する。
我々のネットワークは,提案したデータセットが動的オブジェクトの存在下での正確なシーン完了を定量化し,監視できることを示唆している。
- 参考スコア(独自算出の注目度): 1.7615233156139762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work addresses a gap in semantic scene completion (SSC) data by creating
a novel outdoor data set with accurate and complete dynamic scenes. Our data
set is formed from randomly sampled views of the world at each time step, which
supervises generalizability to complete scenes without occlusions or traces. We
create SSC baselines from state-of-the-art open source networks and construct a
benchmark real-time dense local semantic mapping algorithm, MotionSC, by
leveraging recent 3D deep learning architectures to enhance SSC with temporal
information. Our network shows that the proposed data set can quantify and
supervise accurate scene completion in the presence of dynamic objects, which
can lead to the development of improved dynamic mapping algorithms. All
software is available at https://github.com/UMich-CURLY/3DMapping.
- Abstract(参考訳): 本研究は,ssc(semantic scene completion)データのギャップに対処し,動的シーンの正確かつ完全なアウトドアデータセットを作成する。
私たちのデータセットは、各時間ステップでランダムにサンプリングされた世界のビューで構成されています。
我々は、最先端のオープンソースネットワークからSSCベースラインを作成し、最近の3Dディープラーニングアーキテクチャを活用して、リアルタイムの局所的セマンティックマッピングアルゴリズムMotionSCを構築する。
提案手法では,提案するデータセットが動的オブジェクトの存在下で正確なシーン完成度を定量化し,監視できることが示され,ダイナミックマッピングアルゴリズムの開発に繋がる可能性がある。
すべてのソフトウェアはhttps://github.com/UMich-CURLY/3DMappingで入手できる。
関連論文リスト
- Open-Vocabulary Octree-Graph for 3D Scene Understanding [54.11828083068082]
Octree-Graphはオープンな3Dシーン理解のための新しいシーン表現である。
セマンティクスを記憶し、その形状に応じてオブジェクトの占有度を調節するアダプティブ・オクツリー構造を開発する。
論文 参考訳(メタデータ) (2024-11-25T10:14:10Z) - SCRREAM : SCan, Register, REnder And Map:A Framework for Annotating Accurate and Dense 3D Indoor Scenes with a Benchmark [43.88114765730359]
SCRREAMは、シーン内のオブジェクトの完全な高密度メッシュのアノテーションを可能にし、実際の画像シーケンスにカメラのポーズを登録する。
データセットのアノテーションパイプラインの詳細を示し、可能なデータセットの4つのバリエーションを示す。
最近の屋内再建とSLAMのためのパイプラインは、新しいベンチマークとして機能している。
論文 参考訳(メタデータ) (2024-10-30T05:53:07Z) - Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - Living Scenes: Multi-object Relocalization and Reconstruction in Changing 3D Environments [20.890476387720483]
MoREは進化する環境における多目的再局在と再構成のための新しいアプローチである。
これらの環境を「生きたシーン」とみなし、異なる時点のスキャンをオブジェクトインスタンスの3次元再構成に変換する問題について考察する。
論文 参考訳(メタデータ) (2023-12-14T17:09:57Z) - A Hybrid Graph Network for Complex Activity Detection in Video [40.843533889724924]
複雑なアクティビティ検出(CompAD)は、分析を長期的なアクティビティに拡張する。
本稿では,局所的な(短期的な)動的シーンを符号化したグラフに適用した注目と,全体の長期的活動をモデル化した時間グラフを組み合わせたハイブリッドグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T15:49:35Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Semantic Scene Completion using Local Deep Implicit Functions on LiDAR
Data [4.355440821669468]
本稿では,シーン補完のための新しい学習手法として,局所的な深層インプリシット関数に基づくシーン分割ネットワークを提案する。
この連続表現は、空間的離散化を必要とせず、広い屋外シーンの幾何学的・意味的な特性を符号化するのに適していることを示す。
実験により,本手法が与えられたシーンの高密度な3次元記述にデコード可能な強力な表現を生成することを確認した。
論文 参考訳(メタデータ) (2020-11-18T07:39:13Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Improving Deep Stereo Network Generalization with Geometric Priors [93.09496073476275]
地上の真実が密集した多様な現実世界のシーンの大規模なデータセットを得ることは困難である。
多くのアルゴリズムは、似たようなシーンや合成データセットの小さな実世界のデータセットに依存している。
本稿では,シーン幾何学の事前知識をエンド・ツー・エンドのステレオネットワークに統合し,ネットワークの一般化を支援することを提案する。
論文 参考訳(メタデータ) (2020-08-25T15:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。