論文の概要: NeuralLabeling: A versatile toolset for labeling vision datasets using
Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2309.11966v1
- Date: Thu, 21 Sep 2023 10:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 15:52:17.132718
- Title: NeuralLabeling: A versatile toolset for labeling vision datasets using
Neural Radiance Fields
- Title(参考訳): Neural Labeling:Neural Radiance Fieldsを用いた視覚データセットのラベル付けのための汎用ツールセット
- Authors: Floris Erich, Naoya Chiba, Yusuke Yoshiyasu, Noriaki Ando, Ryo Hanai,
Yukiyasu Domae
- Abstract要約: 我々は、バウンディングボックスまたはメッシュを使用してシーンに注釈を付けるためのラベリングアプローチとツールセットであるNeuralLabelingを紹介する。
注釈付き深度マップを用いた単純な深度ニューラルネットワークのトレーニングは、従来適用されていた弱教師付きアプローチのトレーニングよりも高い再構成性能が得られることを示す。
- 参考スコア(独自算出の注目度): 6.868159500119981
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present NeuralLabeling, a labeling approach and toolset for annotating a
scene using either bounding boxes or meshes and generating segmentation masks,
affordance maps, 2D bounding boxes, 3D bounding boxes, 6DOF object poses, depth
maps and object meshes. NeuralLabeling uses Neural Radiance Fields (NeRF) as
renderer, allowing labeling to be performed using 3D spatial tools while
incorporating geometric clues such as occlusions, relying only on images
captured from multiple viewpoints as input. To demonstrate the applicability of
NeuralLabeling to a practical problem in robotics, we added ground truth depth
maps to 30000 frames of transparent object RGB and noisy depth maps of glasses
placed in a dishwasher captured using an RGBD sensor, yielding the
Dishwasher30k dataset. We show that training a simple deep neural network with
supervision using the annotated depth maps yields a higher reconstruction
performance than training with the previously applied weakly supervised
approach.
- Abstract(参考訳): NeuralLabelingは、バウンディングボックスまたはメッシュを使用してシーンをアノテートし、セグメンテーションマスク、割当マップ、2Dバウンディングボックス、3Dバウンディングボックス、6DOFオブジェクトポーズ、深さマップ、オブジェクトメッシュを生成するためのラベリングアプローチおよびツールセットである。
NeuralLabelingは、Neural Radiance Fields(NeRF)をレンダラーとして使用し、オクルージョンのような幾何学的手がかりを入力として複数の視点から取得した画像にのみ依存しながら、3D空間ツールを使用してラベリングを行うことができる。
ロボット工学の実践的な問題に対するNeuralLabelingの適用性を実証するため,透明物体RGBの30000フレームに基底真理深度マップを付加し,RGBDセンサを用いて捕集した食器洗い機に設置したガラスのノイズ深度マップをDishwasher30kデータセットとした。
注記付き深層マップを用いた単純な深層ニューラルネットワークの学習は,前述した弱教師付きアプローチによる学習よりも高い再構成性能をもたらすことを示す。
関連論文リスト
- ARKit LabelMaker: A New Scale for Indoor 3D Scene Understanding [51.509115746992165]
我々はARKit LabelMakerを紹介した。これは、密集したセマンティックアノテーションを備えた、最初の大規模で現実世界の3Dデータセットである。
また,3次元セマンティックセグメンテーションモデルを用いて,ScanNetおよびScanNet200データセットの最先端性能を推し進める。
論文 参考訳(メタデータ) (2024-10-17T14:44:35Z) - NeRF-MAE: Masked AutoEncoders for Self-Supervised 3D Representation Learning for Neural Radiance Fields [57.617972778377215]
提案手法は,RGB画像から有効な3D表現を生成する方法を示す。
我々は、この表現を、提案した擬似RGBデータに基づいて、180万枚以上の画像で事前訓練する。
我々は,NeRFの自己教師型プレトレーニングであるNeRF-MAE(NeRF-MAE)を目覚ましいスケールで実施し,様々な3Dタスクの性能向上を実現した。
論文 参考訳(メタデータ) (2024-04-01T17:59:55Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Neural Feature Fusion Fields: 3D Distillation of Self-Supervised 2D
Image Representations [92.88108411154255]
本稿では,3次元シーンとして再構成可能な複数画像の解析に後者を適用する際に,高密度な2次元画像特徴抽出器を改善する手法を提案する。
本手法は,手動ラベルを使わずに,シーン固有のニューラルネットワークの文脈における意味理解を可能にするだけでなく,自己監督型2Dベースラインよりも一貫して改善されていることを示す。
論文 参考訳(メタデータ) (2022-09-07T23:24:09Z) - NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance
Fields [54.27264716713327]
シーンのニューラル・ラジアンス・フィールド(NeRF)表現は,高密度物体記述子の訓練に利用できることを示す。
我々は、最適化されたNeRFを用いて、オブジェクトの複数のビュー間の密接な対応を抽出し、これらの対応を、オブジェクトのビュー不変表現を学習するためのトレーニングデータとして使用する。
また,本手法により教師されたディエンス対応モデルは,市販の学習ディスクリプタよりも106%優れていた。
論文 参考訳(メタデータ) (2022-03-03T18:49:57Z) - A Real-Time Online Learning Framework for Joint 3D Reconstruction and
Semantic Segmentation of Indoor Scenes [87.74952229507096]
本稿では,屋内シーンの3次元構造とセマンティックラベルを協調的に復元するリアルタイムオンライン視覚フレームワークを提案する。
列車時、ノイズの多い深度マップ、カメラ軌跡、および2Dセマンティックラベルを与えられたニューラルネットワークは、シーン空間に適切なセマンティックラベルでフレームの奥行きを融合させることを学習する。
論文 参考訳(メタデータ) (2021-08-11T14:29:01Z) - Rapid Pose Label Generation through Sparse Representation of Unknown
Objects [7.32172860877574]
本研究は、未知のオブジェクトに対する実世界のポーズアノテートされたRGB-Dデータを高速に生成するためのアプローチを提案する。
我々はまず、RGB-Dビデオのセット上で任意に選択されたキーポイントの順序付きセットの最小限のラベルを出力する。
最適化問題を解くことにより、これらのラベルをワールドフレームの下に組み合わせ、スパースでキーポイントに基づくオブジェクトの表現を復元する。
論文 参考訳(メタデータ) (2020-11-07T15:14:03Z) - Learning Monocular 3D Vehicle Detection without 3D Bounding Box Labels [0.09558392439655011]
3Dオブジェクト検出器のトレーニングには、3Dバウンディングボックスラベルを持つデータセットが必要である。
本稿では,3次元境界ボックスラベルを使わずにモノラルな3次元物体検出を学習するためのネットワークアーキテクチャとトレーニング手順を提案する。
提案アルゴリズムを実世界のKITTIデータセット上で評価し,トレーニングに3Dバウンディングボックスラベルを必要とする最先端の手法と比較して有望な性能を実現する。
論文 参考訳(メタデータ) (2020-10-07T16:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。