論文の概要: LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories
- arxiv url: http://arxiv.org/abs/2311.12174v1
- Date: Mon, 20 Nov 2023 20:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:56:40.493738
- Title: LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories
- Title(参考訳): LABELMAKER:RGB-D軌道からの自動セマンティックラベル生成
- Authors: Silvan Weder, Hermann Blum, Francis Engelmann, Marc Pollefeys
- Abstract要約: この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
- 参考スコア(独自算出の注目度): 59.14011485494713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic annotations are indispensable to train or evaluate perception
models, yet very costly to acquire. This work introduces a fully automated
2D/3D labeling framework that, without any human intervention, can generate
labels for RGB-D scans at equal (or better) level of accuracy than comparable
manually annotated datasets such as ScanNet. Our approach is based on an
ensemble of state-of-the-art segmentation models and 3D lifting through neural
rendering. We demonstrate the effectiveness of our LabelMaker pipeline by
generating significantly better labels for the ScanNet datasets and
automatically labelling the previously unlabeled ARKitScenes dataset. Code and
models are available at https://labelmaker.org
- Abstract(参考訳): セマンティックアノテーションは知覚モデルの訓練や評価には不可欠だが、取得には非常にコストがかかる。
この作業は、完全に自動化された2D/3Dラベリングフレームワークを導入し、人間の介入なしに、ScanNetのような手動アノテーション付きデータセットと同等(あるいはそれ以上)の精度でRGB-Dスキャンのラベルを生成することができる。
我々のアプローチは、最先端のセグメンテーションモデルとニューラルレンダリングによる3Dリフトのアンサンブルに基づいている。
我々は、scannetデータセットのラベルを生成し、以前ラベルなしだったarkitscenesデータセットを自動的にラベル付けすることにより、 labelmakerパイプラインの有効性を実証する。
コードとモデルはhttps://labelmaker.orgで入手できる。
関連論文リスト
- ARKit LabelMaker: A New Scale for Indoor 3D Scene Understanding [51.509115746992165]
我々はARKit LabelMakerを紹介した。これは、密集したセマンティックアノテーションを備えた、最初の大規模で現実世界の3Dデータセットである。
また,3次元セマンティックセグメンテーションモデルを用いて,ScanNetおよびScanNet200データセットの最先端性能を推し進める。
論文 参考訳(メタデータ) (2024-10-17T14:44:35Z) - Segment, Lift and Fit: Automatic 3D Shape Labeling from 2D Prompts [50.181870446016376]
本稿では,2Dポイントやボックスプロンプトから3Dオブジェクトを自動的にラベル付けするアルゴリズムを提案する。
従来のアートとは異なり、自動ラベルはバウンディングボックスの代わりに3D形状を予測し、特定のデータセットのトレーニングを必要としない。
論文 参考訳(メタデータ) (2024-07-16T04:53:28Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - 3D-aware Conditional Image Synthesis [76.68701564600998]
pix2pix3Dは、可制御光写実画像合成のための3D対応条件生成モデルである。
我々は,任意の視点からラベルマップを編集し,それに応じて出力を生成するインタラクティブシステムを構築した。
論文 参考訳(メタデータ) (2023-02-16T18:59:53Z) - From CAD models to soft point cloud labels: An automatic annotation
pipeline for cheaply supervised 3D semantic segmentation [0.0]
そこで本研究では,CADモデルを用いた生の3次元点雲を入力として取り出して,説得力のある点ラベルを出力する,完全自動アノテーション手法を提案する。
手動のアノテーションと比較すると、自動ラベルは正確であり、アノテーションの時間を大幅に短縮する。
本研究では,実産業用点雲のデータセットと屋内シーンの公開データセットであるScan2CADを用いて,PointNet++のラベル品質とセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2023-02-06T20:33:16Z) - iLabel: Interactive Neural Scene Labelling [20.63756683450811]
3次元神経場を用いた幾何学、色、意味の合同表現は、超スパース相互作用による正確な密なラベリングを可能にする。
当社のiLabelシステムは、トレーニングデータを必要としないが、標準的な方法よりも正確にシーンをラベル付けすることができる。
これは'オープンセット'のやり方で動作し、ユーザがオンザフライで定義したセマンティッククラスで機能する。
論文 参考訳(メタデータ) (2021-11-29T15:49:20Z) - DeepScanner: a Robotic System for Automated 2D Object Dataset Collection
with Annotations [4.0423807111935295]
音声合成ロボットを用いた自動データセット収集の可能性について述べる。
提案技術は,多角形データセット上の画素誤差の数と2次元オブジェクトの手動ラベリングに要する時間を削減する。
論文 参考訳(メタデータ) (2021-08-05T12:21:18Z) - Manual-Label Free 3D Detection via An Open-Source Simulator [50.74299948748722]
我々は、CARLAシミュレータを利用して、大量の自己ラベル付きトレーニングサンプルを生成する手動ラベルフリーな3D検出アルゴリズムを提案する。
ドメイン適応型VoxelNet(DA-VoxelNet)は、合成データから実際のシナリオへの分散ギャップを横断することができる。
実験の結果、提案されたDA 3D検出器は、KITTI評価セット上で76.66%と56.64%のmAPを達成することができた。
論文 参考訳(メタデータ) (2020-11-16T08:29:01Z) - Rapid Pose Label Generation through Sparse Representation of Unknown
Objects [7.32172860877574]
本研究は、未知のオブジェクトに対する実世界のポーズアノテートされたRGB-Dデータを高速に生成するためのアプローチを提案する。
我々はまず、RGB-Dビデオのセット上で任意に選択されたキーポイントの順序付きセットの最小限のラベルを出力する。
最適化問題を解くことにより、これらのラベルをワールドフレームの下に組み合わせ、スパースでキーポイントに基づくオブジェクトの表現を復元する。
論文 参考訳(メタデータ) (2020-11-07T15:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。