論文の概要: Feature-Realistic Neural Fusion for Real-Time, Open Set Scene
Understanding
- arxiv url: http://arxiv.org/abs/2210.03043v1
- Date: Thu, 6 Oct 2022 16:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:09:32.827927
- Title: Feature-Realistic Neural Fusion for Real-Time, Open Set Scene
Understanding
- Title(参考訳): リアルタイムオープンセットシーン理解のための特徴リアリスティックニューラルフュージョン
- Authors: Kirill Mazur, Edgar Sucar and Andrew J. Davison
- Abstract要約: ロボット工学の一般的な場面理解には、柔軟な意味表現が必要である。
本稿では,標準的な事前学習ネットワークから高効率な3次元ニューラルネットワーク表現に一般化された特徴を融合するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.49463835270141
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: General scene understanding for robotics requires flexible semantic
representation, so that novel objects and structures which may not have been
known at training time can be identified, segmented and grouped. We present an
algorithm which fuses general learned features from a standard pre-trained
network into a highly efficient 3D geometric neural field representation during
real-time SLAM. The fused 3D feature maps inherit the coherence of the neural
field's geometry representation. This means that tiny amounts of human
labelling interacting at runtime enable objects or even parts of objects to be
robustly and accurately segmented in an open set manner.
- Abstract(参考訳): ロボティクスの一般的なシーン理解には柔軟な意味表現が必要であり、トレーニング時に知られていない可能性のある新しいオブジェクトや構造を識別、分割、グループ化することができる。
本稿では,標準的な事前学習ネットワークから,リアルタイムSLAMにおける高効率な3次元幾何学的ニューラルネットワーク表現に一般化したアルゴリズムを提案する。
融合した3D特徴写像は、ニューラルネットワークの幾何表現のコヒーレンスを継承する。
つまり、実行時に対話するわずかな量の人間のラベルによって、オブジェクトやオブジェクトの一部でさえ、オープンセットでロバストかつ正確にセグメンテーションすることができる。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - Optimizing 3D Geometry Reconstruction from Implicit Neural Representations [2.3940819037450987]
暗黙の神経表現は、3D幾何学を学ぶための強力なツールとして登場した。
本稿では,計算コストを削減し,細部を捉える新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T16:36:23Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。