論文の概要: 3D Object Segmentation for Shelf Bin Picking by Humanoid with Deep
Learning and Occupancy Voxel Grid Map
- arxiv url: http://arxiv.org/abs/2001.05406v2
- Date: Thu, 16 Jan 2020 08:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:59:33.230222
- Title: 3D Object Segmentation for Shelf Bin Picking by Humanoid with Deep
Learning and Occupancy Voxel Grid Map
- Title(参考訳): 深層学習とOccupupancy Voxel Grid Mapを用いたHumanoidによるシェルフビンピッキングのための3次元オブジェクト分割
- Authors: Kentaro Wada, Masaki Murooka, Kei Okada, Masayuki Inaba
- Abstract要約: 複数のカメラアングルとボクセルグリッドマップを用いて,対象物を3次元に分割する手法を開発した。
狭い棚箱内の対象物に対するピッキング・タスク実験により,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 27.312696750923926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Picking objects in a narrow space such as shelf bins is an important task for
humanoid to extract target object from environment. In those situations,
however, there are many occlusions between the camera and objects, and this
makes it difficult to segment the target object three dimensionally because of
the lack of three dimentional sensor inputs. We address this problem with
accumulating segmentation result with multiple camera angles, and generating
voxel model of the target object. Our approach consists of two components:
first is object probability prediction for input image with convolutional
networks, and second is generating voxel grid map which is designed for object
segmentation. We evaluated the method with the picking task experiment for
target objects in narrow shelf bins. Our method generates dense 3D object
segments even with occlusions, and the real robot successfuly picked target
objects from the narrow space.
- Abstract(参考訳): 棚箱のような狭い空間でオブジェクトを選択することは、ヒューマノイドが環境からターゲットオブジェクトを抽出するための重要なタスクである。
しかし、これらの状況では、カメラと物体の間には多くの閉塞があり、3つのディメンションセンサ入力がないため、対象オブジェクトを3次元に分割することは困難である。
複数のカメラアングルでセグメンテーション結果を蓄積し、ターゲットオブジェクトのvoxelモデルを生成することで、この問題に対処する。
提案手法は2つのコンポーネントから構成される: 1つは畳み込みネットワークによる入力画像のオブジェクト確率予測、2つ目はオブジェクトセグメンテーション用に設計されたボクセルグリッドマップを生成する。
狭い棚箱内の対象物に対するピッキングタスク実験により,本手法の評価を行った。
本手法は咬合時においても密集した3dオブジェクトセグメントを生成し,実際のロボットは狭い空間から対象オブジェクトを選択した。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - Counting Stacked Objects from Multi-View Images [57.68870743111393]
本稿では,タスクを2つの相補的なサブプロブレムに分解する新しい3Dカウント手法を提案する。
幾何学的再構成と深層学習に基づく深度解析を組み合わせることで,コンテナ内の同一物体を正確にカウントすることができる。
多様な実世界および大規模合成データセット上での3Dカウントパイプラインの検証を行う。
論文 参考訳(メタデータ) (2024-11-28T13:51:16Z) - PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Topologically Persistent Features-based Object Recognition in Cluttered
Indoor Environments [1.2691047660244335]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって困難な問題である。
本研究では,物体点雲の3次元形状を捉えるスライシングに基づく新しいトポロジカルディスクリプタを提案する。
これは、隠蔽対象のディスクリプタとそれに対応する非隠蔽対象との類似性を生じさせ、オブジェクトのユニティに基づく認識を可能にする。
論文 参考訳(メタデータ) (2022-05-16T07:01:16Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - Counting from Sky: A Large-scale Dataset for Remote Sensing Object
Counting and A Benchmark Method [52.182698295053264]
リモートセンシング画像から高密度物体をカウントすることに興味がある。自然界における物体のカウントと比較すると、このタスクは、大規模変動、複雑な乱れ背景、配向仲裁といった要因において困難である。
これらの課題に対処するために,我々はまず,4つの重要な地理的対象を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-08-28T03:47:49Z) - Learning Object Depth from Camera Motion and Video Object Segmentation [43.81711115175958]
本稿では,カメラの動きを測定することによって,分割対象の深度を推定する学習の課題に対処する。
我々は、カメラとオブジェクト間の距離の変化に対してスケールされた人工的なオブジェクトセグメンテーションを作成し、そのネットワークは、セグメンテーションエラーがあっても、オブジェクトの深さを推定することを学ぶ。
ロボットカメラを用いて、YCBデータセットから物体を検知するためのアプローチと、運転中の障害物を見つけるための車両カメラとのアプローチを実証する。
論文 参考訳(メタデータ) (2020-07-11T03:50:57Z) - Object as Hotspots: An Anchor-Free 3D Object Detection Approach via
Firing of Hotspots [37.16690737208046]
オブジェクトレベルのアンカーを用いた既存のメソッドとは逆のアプローチを論じる。
構成モデルに着想を得て、内部の空でないボクセルの組成として、ホットスポットと呼ばれる物体を提案する。
提案手法は,OHSに基づく新しい地中真理割当て戦略を用いたアンカーフリー検出ヘッドを提案する。
論文 参考訳(メタデータ) (2019-12-30T03:02:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。