論文の概要: 3D Object Segmentation for Shelf Bin Picking by Humanoid with Deep
Learning and Occupancy Voxel Grid Map
- arxiv url: http://arxiv.org/abs/2001.05406v2
- Date: Thu, 16 Jan 2020 08:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:59:33.230222
- Title: 3D Object Segmentation for Shelf Bin Picking by Humanoid with Deep
Learning and Occupancy Voxel Grid Map
- Title(参考訳): 深層学習とOccupupancy Voxel Grid Mapを用いたHumanoidによるシェルフビンピッキングのための3次元オブジェクト分割
- Authors: Kentaro Wada, Masaki Murooka, Kei Okada, Masayuki Inaba
- Abstract要約: 複数のカメラアングルとボクセルグリッドマップを用いて,対象物を3次元に分割する手法を開発した。
狭い棚箱内の対象物に対するピッキング・タスク実験により,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 27.312696750923926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Picking objects in a narrow space such as shelf bins is an important task for
humanoid to extract target object from environment. In those situations,
however, there are many occlusions between the camera and objects, and this
makes it difficult to segment the target object three dimensionally because of
the lack of three dimentional sensor inputs. We address this problem with
accumulating segmentation result with multiple camera angles, and generating
voxel model of the target object. Our approach consists of two components:
first is object probability prediction for input image with convolutional
networks, and second is generating voxel grid map which is designed for object
segmentation. We evaluated the method with the picking task experiment for
target objects in narrow shelf bins. Our method generates dense 3D object
segments even with occlusions, and the real robot successfuly picked target
objects from the narrow space.
- Abstract(参考訳): 棚箱のような狭い空間でオブジェクトを選択することは、ヒューマノイドが環境からターゲットオブジェクトを抽出するための重要なタスクである。
しかし、これらの状況では、カメラと物体の間には多くの閉塞があり、3つのディメンションセンサ入力がないため、対象オブジェクトを3次元に分割することは困難である。
複数のカメラアングルでセグメンテーション結果を蓄積し、ターゲットオブジェクトのvoxelモデルを生成することで、この問題に対処する。
提案手法は2つのコンポーネントから構成される: 1つは畳み込みネットワークによる入力画像のオブジェクト確率予測、2つ目はオブジェクトセグメンテーション用に設計されたボクセルグリッドマップを生成する。
狭い棚箱内の対象物に対するピッキングタスク実験により,本手法の評価を行った。
本手法は咬合時においても密集した3dオブジェクトセグメントを生成し,実際のロボットは狭い空間から対象オブジェクトを選択した。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Topologically Persistent Features-based Object Recognition in Cluttered
Indoor Environments [1.2691047660244335]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって困難な問題である。
本研究では,物体点雲の3次元形状を捉えるスライシングに基づく新しいトポロジカルディスクリプタを提案する。
これは、隠蔽対象のディスクリプタとそれに対応する非隠蔽対象との類似性を生じさせ、オブジェクトのユニティに基づく認識を可能にする。
論文 参考訳(メタデータ) (2022-05-16T07:01:16Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - Counting from Sky: A Large-scale Dataset for Remote Sensing Object
Counting and A Benchmark Method [52.182698295053264]
リモートセンシング画像から高密度物体をカウントすることに興味がある。自然界における物体のカウントと比較すると、このタスクは、大規模変動、複雑な乱れ背景、配向仲裁といった要因において困難である。
これらの課題に対処するために,我々はまず,4つの重要な地理的対象を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-08-28T03:47:49Z) - Learning Object Depth from Camera Motion and Video Object Segmentation [43.81711115175958]
本稿では,カメラの動きを測定することによって,分割対象の深度を推定する学習の課題に対処する。
我々は、カメラとオブジェクト間の距離の変化に対してスケールされた人工的なオブジェクトセグメンテーションを作成し、そのネットワークは、セグメンテーションエラーがあっても、オブジェクトの深さを推定することを学ぶ。
ロボットカメラを用いて、YCBデータセットから物体を検知するためのアプローチと、運転中の障害物を見つけるための車両カメラとのアプローチを実証する。
論文 参考訳(メタデータ) (2020-07-11T03:50:57Z) - Instance Segmentation of Biomedical Images with an Object-aware
Embedding Learned with Local Constraints [7.151685185368064]
State-of-the-artアプローチはセマンティックセグメンテーションまたは洗練されたオブジェクトバウンディングボックスを実行する。
どちらも、隣のオブジェクトをマージしたり、有効なオブジェクトを抑圧したりして、さまざまな程度に混雑するオブジェクトに悩まされる。
本研究では,深層ニューラルネットワークを用いて各画素に埋め込みベクトルを割り当てる。
論文 参考訳(メタデータ) (2020-04-21T08:33:29Z) - Counting dense objects in remote sensing images [52.182698295053264]
特定の画像から関心のあるオブジェクトの数を推定するのは、難しいが重要な作業である。
本稿では,リモートセンシング画像から高密度物体を数えることに興味がある。
これらの課題に対処するために,我々はまず,リモートセンシング画像に基づく大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-02-14T09:13:54Z) - Object as Hotspots: An Anchor-Free 3D Object Detection Approach via
Firing of Hotspots [37.16690737208046]
オブジェクトレベルのアンカーを用いた既存のメソッドとは逆のアプローチを論じる。
構成モデルに着想を得て、内部の空でないボクセルの組成として、ホットスポットと呼ばれる物体を提案する。
提案手法は,OHSに基づく新しい地中真理割当て戦略を用いたアンカーフリー検出ヘッドを提案する。
論文 参考訳(メタデータ) (2019-12-30T03:02:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。