論文の概要: Vision-based Manipulation of Transparent Plastic Bags in Industrial Setups
- arxiv url: http://arxiv.org/abs/2411.09623v2
- Date: Tue, 19 Nov 2024 10:15:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:37:28.877115
- Title: Vision-based Manipulation of Transparent Plastic Bags in Industrial Setups
- Title(参考訳): 産業設備における透明プラスチック製バッグの視覚操作
- Authors: F. Adetunji, A. Karukayil, P. Samant, S. Shabana, F. Varghese, U. Upadhyay, R. A. Yadav, A. Partridge, E. Pendleton, R. Plant, Y. Petillot, M. Koskinopoulou,
- Abstract要約: 本稿では, 産業設備における透明プラスチック袋の自律切削・開梱における視覚的操作の課題について述べる。
提案手法は、高度な機械学習アルゴリズム、特に畳み込みニューラルネットワーク(CNN)を用いる。
追尾アルゴリズムと深度センシング技術は、ピック・配置中の3次元空間認識に利用される。
- 参考スコア(独自算出の注目度): 0.37187295985559027
- License:
- Abstract: This paper addresses the challenges of vision-based manipulation for autonomous cutting and unpacking of transparent plastic bags in industrial setups, aligning with the Industry 4.0 paradigm. Industry 4.0, driven by data, connectivity, analytics, and robotics, promises enhanced accessibility and sustainability throughout the value chain. The integration of autonomous systems, including collaborative robots (cobots), into industrial processes is pivotal for efficiency and safety. The proposed solution employs advanced Machine Learning algorithms, particularly Convolutional Neural Networks (CNNs), to identify transparent plastic bags under varying lighting and background conditions. Tracking algorithms and depth sensing technologies are utilized for 3D spatial awareness during pick and placement. The system addresses challenges in grasping and manipulation, considering optimal points, compliance control with vacuum gripping technology, and real-time automation for safe interaction in dynamic environments. The system's successful testing and validation in the lab with the FRANKA robot arm, showcases its potential for widespread industrial applications, while demonstrating effectiveness in automating the unpacking and cutting of transparent plastic bags for an 8-stack bulk-loader based on specific requirements and rigorous testing.
- Abstract(参考訳): 本稿では,産業4.0パラダイムに則って,透明なビニール袋の自律切削・開梱における視覚的操作の課題に対処する。
データ、接続性、分析、ロボットによって駆動される産業4.0は、バリューチェーン全体のアクセシビリティと持続可能性を高めることを約束している。
協調ロボット(コボット)を含む自律システムの産業プロセスへの統合は、効率性と安全性にとって重要な要素である。
提案手法は、高度な機械学習アルゴリズム、特に畳み込みニューラルネットワーク(CNN)を用いて、様々な照明と背景条件下で透明なプラスチック袋を識別する。
追尾アルゴリズムと深度センシング技術は、ピック・配置中の3次元空間認識に利用される。
このシステムは、最適点を考慮した把握と操作、真空グリップ技術によるコンプライアンス制御、動的環境における安全なインタラクションのためのリアルタイム自動化といった課題に対処する。
FRANKAロボットアームを用いたラボでの試験と検証の成功は、幅広い産業応用の可能性を示しながら、特定の要求と厳密なテストに基づいて8スタックのバルクローダー用の透明なプラスチック袋の開梱と切断を自動化する効果を実証している。
関連論文リスト
- RAMPA: Robotic Augmented Reality for Machine Programming and Automation [4.963604518596734]
本稿では,RAMPA(Robotic Augmented Reality for Machine Programming)を紹介する。
RAMPAは最先端のARヘッドセット、例えばMeta Quest 3の能力を利用するシステムである。
提案手法は,ユーザの物理的環境内で直接,スキルデモのその場でのデータ記録,可視化,微調整を可能にする。
論文 参考訳(メタデータ) (2024-10-17T10:21:28Z) - SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - RoboGrind: Intuitive and Interactive Surface Treatment with Industrial
Robots [7.7407798321584185]
RoboGrindは、産業用ロボットによる表面処理タスクの直感的でインタラクティブな自動化のための統合システムである。
表面スキャンと自動欠陥識別のための高度な3D認識パイプラインを組み合わせる。
論文 参考訳(メタデータ) (2024-02-26T13:01:28Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Towards Packaging Unit Detection for Automated Palletizing Tasks [5.235268087662475]
本稿では、合成データに基づいて完全に訓練されたこの課題に対するアプローチを提案する。
提案手法はスパースおよび低品質センサデータを扱うことができる。
我々は、さまざまな小売商品で現実世界のデータについて広範な評価を行う。
論文 参考訳(メタデータ) (2023-08-11T15:37:38Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。