論文の概要: Kit-Net: Self-Supervised Learning to Kit Novel 3D Objects into Novel 3D
Cavities
- arxiv url: http://arxiv.org/abs/2107.05789v1
- Date: Tue, 13 Jul 2021 00:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 01:24:17.939359
- Title: Kit-Net: Self-Supervised Learning to Kit Novel 3D Objects into Novel 3D
Cavities
- Title(参考訳): Kit-Net: 新しい3Dオブジェクトを新しい3Dキャビティに組み込むための自己指導型学習
- Authors: Shivin Devgon and Jeffrey Ichnowski and Michael Danielczuk and Daniel
S. Brown and Ashwin Balakrishna and Shirin Joshi and Eduardo M. C. Rocha and
Eugen Solowjow and Ken Goldberg
- Abstract要約: 工業用部品キットでは、輸送用またはその後の組立用のキャビティに3Dオブジェクトを挿入する。
未確認の3Dオブジェクトを対象空洞の奥行き画像とグリッパーが保持する物体の空洞に、未知の初期方位でキットするフレームワークKit-Netを提案する。
- 参考スコア(独自算出の注目度): 29.944007405786067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In industrial part kitting, 3D objects are inserted into cavities for
transportation or subsequent assembly. Kitting is a critical step as it can
decrease downstream processing and handling times and enable lower storage and
shipping costs. We present Kit-Net, a framework for kitting previously unseen
3D objects into cavities given depth images of both the target cavity and an
object held by a gripper in an unknown initial orientation. Kit-Net uses
self-supervised deep learning and data augmentation to train a convolutional
neural network (CNN) to robustly estimate 3D rotations between objects and
matching concave or convex cavities using a large training dataset of simulated
depth images pairs. Kit-Net then uses the trained CNN to implement a controller
to orient and position novel objects for insertion into novel prismatic and
conformal 3D cavities. Experiments in simulation suggest that Kit-Net can
orient objects to have a 98.9% average intersection volume between the object
mesh and that of the target cavity. Physical experiments with industrial
objects succeed in 18% of trials using a baseline method and in 63% of trials
with Kit-Net. Video, code, and data are available at
https://github.com/BerkeleyAutomation/Kit-Net.
- Abstract(参考訳): 工業用部品キットでは、輸送用またはその後の組み立て用のキャビティに3Dオブジェクトを挿入する。
キッティングは下流の処理と処理時間を短縮し、ストレージと出荷コストを削減できるため、重要なステップである。
対象キャビティとグリッパーが保持する物体の深さ画像が不明な初期方向の深さから3dオブジェクトをキャビティにキットするフレームワークであるkit-netを提案する。
kit-netは、自己教師付きディープラーニングとデータ拡張を使用して、畳み込みニューラルネットワーク(cnn)をトレーニングし、シミュレーションされた深度画像ペアの大規模なトレーニングデータセットを使用して、オブジェクト間の3d回転を堅牢に見積もる。
kit-netはトレーニングされたcnnを使用して、新しいオブジェクトをオリエントおよび位置決めするコントローラを実装し、新しいプリズムおよび共形3dキャビティに挿入する。
シミュレーション実験では、kit-netはオブジェクトを向き付け、オブジェクトメッシュとターゲットキャビティの平均交点体積を98.9%とすることを示唆している。
工業用物体を用いた物理実験は, ベースライン法で18%, Kit-Netで63%の試験で成功した。
ビデオ、コード、データはhttps://github.com/berkeleyautomation/kit-netで入手できる。
関連論文リスト
- UniDet3D: Multi-dataset Indoor 3D Object Detection [4.718582862677851]
簡単な3Dオブジェクト検出モデルです
屋内データセットの混合で訓練され、様々な屋内環境で働くことができる。
論文 参考訳(メタデータ) (2024-09-06T12:40:19Z) - PillarNeSt: Embracing Backbone Scaling and Pretraining for Pillar-based
3D Object Detection [33.00510927880774]
柱型3次元物体検出器における2次元バックボーンスケーリングと事前学習の有効性を示す。
提案する柱型検出器であるPillarNeStは、既存の3Dオブジェクト検出器よりも、nuScenesとArgoversev2データセットのマージンが大きい。
論文 参考訳(メタデータ) (2023-11-29T16:11:33Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - Monocular 3D Detection with Geometric Constraints Embedding and
Semi-supervised Training [3.8073142980733]
我々は,KM3D-Netと呼ばれる,RGB画像のみを用いたモノクル3Dオブジェクト検出のための新しいフレームワークを提案する。
我々は、対象のキーポイント、次元、方向を予測するための完全な畳み込みモデルを設計し、これらの推定を視点幾何学的制約と組み合わせて位置属性を計算する。
論文 参考訳(メタデータ) (2020-09-02T00:51:51Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - MoNet3D: Towards Accurate Monocular 3D Object Localization in Real Time [15.245372936153277]
MoNet3Dはモノクロ画像中の各オブジェクトの3D位置を予測し、各オブジェクトの3Dバウンディングボックスを描画する新しいフレームワークである。
この手法は27.85FPSのリアルタイム画像処理を実現することができ、組込み先進運転支援システム応用の可能性を示している。
論文 参考訳(メタデータ) (2020-06-29T12:48:57Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。