論文の概要: A Low-Cost, High-Speed, and Robust Bin Picking System for Factory Automation Enabled by a Non-Stop, Multi-View, and Active Vision Scheme
- arxiv url: http://arxiv.org/abs/2410.00706v1
- Date: Tue, 1 Oct 2024 13:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 04:25:20.068364
- Title: A Low-Cost, High-Speed, and Robust Bin Picking System for Factory Automation Enabled by a Non-Stop, Multi-View, and Active Vision Scheme
- Title(参考訳): 非ストップ・マルチビュー・アクティブビジョン方式によるファクトリ自動化のための低コスト・高速・ロバストビンピッキングシステム
- Authors: Xingdou Fu, Lin Miao, Yasuhiro Ohnishi, Yuki Hasegawa, Masaki Suwa,
- Abstract要約: 工場自動化におけるビンピッキングシステムは通常、金属オブジェクトのスパースでノイズの多い3Dデータによって引き起こされる問題に直面する。
動作タスクと多視点能動視覚スキームを「手持ちセンサ」構成で緊密に結合するビンピッキングシステムを設計した。
実験の結果,CPU上では 1.682秒 (最大) 以内で全体の検知が完了し, 抽出完了率は97.75%を超えることがわかった。
- 参考スコア(独自算出の注目度): 1.3514953384460016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bin picking systems in factory automation usually face robustness issues caused by sparse and noisy 3D data of metallic objects. Utilizing multiple views, especially with a one-shot 3D sensor and "sensor on hand" configuration is getting more popularity due to its effectiveness, flexibility, and low cost. While moving the 3D sensor to acquire multiple views for 3D fusion, joint optimization, or active vision suffers from low-speed issues. That is because sensing is taken as a decoupled module from motion tasks and is not intentionally designed for a bin picking system. To address the problems, we designed a bin picking system, which tightly couples a multi-view, active vision scheme with motion tasks in a "sensor on hand" configuration. It not only speeds up the system by parallelizing the high-speed sensing scheme to the robot place action but also decides the next sensing path to maintain the continuity of the whole picking process. Unlike others focusing only on sensing evaluation, we also evaluated our design by picking experiments on 5 different types of objects without human intervention. Our experiments show the whole sensing scheme can be finished within 1.682 seconds (maximum) on CPU and the average picking complete rate is over 97.75%. Due to the parallelization with robot motion, the sensing scheme accounts for only 0.635 seconds in takt time on average.
- Abstract(参考訳): 工場自動化におけるビンピッキングシステムは通常、金属オブジェクトのスパースでノイズの多い3Dデータによって引き起こされる堅牢性の問題に直面する。
複数ビュー、特にワンショットの3Dセンサーと「手のセンサー」構成を利用することで、その効率性、柔軟性、低コストさから人気が高まっている。
3Dセンサーを3D融合、共同最適化、アクティブビジョンのために複数のビューに移動させる場合、低速で問題が発生する。
これは、センシングが動作タスクから切り離されたモジュールとして扱われ、意図的にビンピッキングシステム用に設計されていないためである。
そこで我々は,動作タスクと多視点能動的視覚スキームを「手持ちセンサ」構成で緊密に結合するビンピッキングシステムを設計した。
ロボットプレイス動作に高速センシングスキームを並列化することでシステムを高速化するだけでなく、次のセンシングパスを決定して、ピッキングプロセス全体の連続性を維持する。
センシング評価のみに焦点を当てた他と異なり, 人間の介入を伴わない5種類の物体について, 実験を行い, 評価を行った。
実験の結果,CPU上では 1.682秒 (最大) 以内で全体の検知が完了し, 抽出完了率は97.75%を超えることがわかった。
ロボットの動きとの並列化により、このセンシング方式は平均で0.635秒のタクト時間しか占めていない。
関連論文リスト
- Ultra Inertial Poser: Scalable Motion Capture and Tracking from Sparse Inertial Sensors and Ultra-Wideband Ranging [23.010268017856824]
我々は,新しい3次元フルボディポーズ推定法であるUltra Inertial Poserを提案する。
本手法は,センサ間距離による慣性追跡においてドリフトとジッタを制約する。
提案手法のPIPおよびTIP上での最先端性能について実験を行った。
論文 参考訳(メタデータ) (2024-04-30T13:14:11Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Real-Time Human Pose Estimation on a Smart Walker using Convolutional
Neural Networks [4.076099054649463]
スマートウォーカのコンテキストにおける患者モニタリングとデータ駆動型ヒューマン・イン・ザ・ループ制御に対する新しいアプローチを提案する。
完全かつコンパクトなボディ表現を、リアルタイムおよび安価なセンサーから抽出することができる。
有望な結果にもかかわらず、現実のシナリオにおけるリハビリテーションツールとしてのパフォーマンスを評価するために、障害のあるユーザにより多くのデータを収集する必要がある。
論文 参考訳(メタデータ) (2021-06-28T14:11:48Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。