論文の概要: 3D Annotation Of Arbitrary Objects In The Wild
- arxiv url: http://arxiv.org/abs/2109.07165v1
- Date: Wed, 15 Sep 2021 09:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:00:21.910747
- Title: 3D Annotation Of Arbitrary Objects In The Wild
- Title(参考訳): 野生における任意物体の3次元アノテーション
- Authors: Kenneth Blomqvist, Julius Hietala
- Abstract要約: SLAM, 3D再構成, 3D-to-2D幾何に基づくデータアノテーションパイプラインを提案する。
このパイプラインは、任意のオブジェクトのピクセル単位のアノテーションとともに、3Dおよび2Dバウンディングボックスを作成することができる。
以上の結果から, セマンティックセグメンテーションと2次元バウンディングボックス検出において, 約90%のインターセクション・オーバー・ユニオン(IoU)が一致していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have produced a variety of learning based methods in the context
of computer vision and robotics. Most of the recently proposed methods are
based on deep learning, which require very large amounts of data compared to
traditional methods. The performance of the deep learning methods are largely
dependent on the data distribution they were trained on, and it is important to
use data from the robot's actual operating domain during training. Therefore,
it is not possible to rely on pre-built, generic datasets when deploying robots
in real environments, creating a need for efficient data collection and
annotation in the specific operating conditions the robots will operate in. The
challenge is then: how do we reduce the cost of obtaining such datasets to a
point where we can easily deploy our robots in new conditions, environments and
to support new sensors? As an answer to this question, we propose a data
annotation pipeline based on SLAM, 3D reconstruction, and 3D-to-2D geometry.
The pipeline allows creating 3D and 2D bounding boxes, along with per-pixel
annotations of arbitrary objects without needing accurate 3D models of the
objects prior to data collection and annotation. Our results showcase almost
90% Intersection-over-Union (IoU) agreement on both semantic segmentation and
2D bounding box detection across a variety of objects and scenes, while
speeding up the annotation process by several orders of magnitude compared to
traditional manual annotation.
- Abstract(参考訳): 近年、コンピュータビジョンとロボット工学の文脈において、学習に基づく様々な手法が生み出されている。
最近提案されたほとんどの方法は、従来の方法に比べて非常に大量のデータを必要とするディープラーニングに基づいている。
深層学習手法の性能は、学習したデータ分布に大きく依存しており、訓練中にロボットの実際の操作領域のデータを使用することが重要である。
したがって、ロボットを実環境にデプロイする際には、事前に構築された汎用データセットに頼ることはできず、ロボットが運用する特定の運用環境において、効率的なデータ収集とアノテーションの必要性が生じる。
課題は、そのようなデータセットを取得するコストを、新しい状況、環境、そして新しいセンサーをサポートするために、ロボットを簡単にデプロイできるポイントまで削減する方法だ。
本稿ではSLAM, 3D再構成, 3D-to-2D形状に基づくデータアノテーションパイプラインを提案する。
データ収集やアノテーションの前に、オブジェクトの正確な3Dモデルを必要とせずに、任意のオブジェクトのピクセル単位のアノテーションとともに、3Dおよび2Dバウンディングボックスを作成することができる。
本研究は, 意味的セグメンテーションと2次元境界ボックス検出の両面でのIoU(Intersection-over-Union, Intersection-over-Union)の約90%の一致を示すとともに, アノテーション処理を従来の手動アノテーションと比較して桁違いに高速化した。
関連論文リスト
- DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Weakly Supervised 3D Object Detection with Multi-Stage Generalization [62.96670547848691]
擬似ラベル生成と多段階一般化を含むBA$2$-Detを導入する。
一般化の3つの段階、完全から部分へ、静的から動的へ、そして遠い距離へ進む。
BA$2$-Detは、KITTIデータセットの20%の相対的な改善を達成できる。
論文 参考訳(メタデータ) (2023-06-08T17:58:57Z) - DR-WLC: Dimensionality Reduction cognition for object detection and pose
estimation by Watching, Learning and Checking [30.58114448119465]
既存の物体検出法とポーズ推定法は、主に訓練に同次元のデータを用いる。
次元減少認知モデルであるDR-WLCは、物体検出と推定タスクを同時に行うことができる。
論文 参考訳(メタデータ) (2023-01-17T15:08:32Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Bridging the Reality Gap for Pose Estimation Networks using Sensor-Based
Domain Randomization [1.4290119665435117]
合成データに基づいて訓練された手法は、2Dの領域ランダム化をより発展させるため、2D画像を使用する。
提案手法では,3次元データをネットワークに統合し,ポーズ推定の精度を高める。
3つの大規模ポーズ推定ベンチマーク実験により, 提案手法は, 合成データを用いた従来手法よりも優れていたことがわかった。
論文 参考訳(メタデータ) (2020-11-17T09:12:11Z) - 3D for Free: Crossmodal Transfer Learning using HD Maps [36.70550754737353]
最新の2Dデータセットの大規模なクラスタコノミクスと、最先端2D検出手法の堅牢性を活用している。
私たちは、自動運転車からラベルのないマルチモーダル運転ログ1151のコレクションをマイニングしています。
よりラベルのないデータをマイニングすることにより,検出器の性能が向上することを示す。
論文 参考訳(メタデータ) (2020-08-24T17:54:51Z) - Self-Supervised Object-in-Gripper Segmentation from Robotic Motions [27.915309216800125]
ロボットが把握した未知の物体をセグメント化するための頑健な解法を提案する。
我々はRGBビデオシーケンスにおける動きと時間的手がかりを利用する。
当社のアプローチは、カメラキャリブレーションや3Dモデル、あるいは潜在的に不完全な深度データとは独立して、完全に自己管理されている。
論文 参考訳(メタデータ) (2020-02-11T15:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。