論文の概要: Feature-Realistic Neural Fusion for Real-Time, Open Set Scene
Understanding
- arxiv url: http://arxiv.org/abs/2210.03043v1
- Date: Thu, 6 Oct 2022 16:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:09:32.827927
- Title: Feature-Realistic Neural Fusion for Real-Time, Open Set Scene
Understanding
- Title(参考訳): リアルタイムオープンセットシーン理解のための特徴リアリスティックニューラルフュージョン
- Authors: Kirill Mazur, Edgar Sucar and Andrew J. Davison
- Abstract要約: ロボット工学の一般的な場面理解には、柔軟な意味表現が必要である。
本稿では,標準的な事前学習ネットワークから高効率な3次元ニューラルネットワーク表現に一般化された特徴を融合するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.49463835270141
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: General scene understanding for robotics requires flexible semantic
representation, so that novel objects and structures which may not have been
known at training time can be identified, segmented and grouped. We present an
algorithm which fuses general learned features from a standard pre-trained
network into a highly efficient 3D geometric neural field representation during
real-time SLAM. The fused 3D feature maps inherit the coherence of the neural
field's geometry representation. This means that tiny amounts of human
labelling interacting at runtime enable objects or even parts of objects to be
robustly and accurately segmented in an open set manner.
- Abstract(参考訳): ロボティクスの一般的なシーン理解には柔軟な意味表現が必要であり、トレーニング時に知られていない可能性のある新しいオブジェクトや構造を識別、分割、グループ化することができる。
本稿では,標準的な事前学習ネットワークから,リアルタイムSLAMにおける高効率な3次元幾何学的ニューラルネットワーク表現に一般化したアルゴリズムを提案する。
融合した3D特徴写像は、ニューラルネットワークの幾何表現のコヒーレンスを継承する。
つまり、実行時に対話するわずかな量の人間のラベルによって、オブジェクトやオブジェクトの一部でさえ、オープンセットでロバストかつ正確にセグメンテーションすることができる。
関連論文リスト
- SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。