論文の概要: EfficientPPS: Part-aware Panoptic Segmentation of Transparent Objects
for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2312.13906v1
- Date: Thu, 21 Dec 2023 14:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 14:29:14.392728
- Title: EfficientPPS: Part-aware Panoptic Segmentation of Transparent Objects
for Robotic Manipulation
- Title(参考訳): efficientpps: ロボット操作のための透明物体の部分認識パンオプティカルセグメンテーション
- Authors: Benjamin Alt, Minh Dang Nguyen, Andreas Hermann, Darko Katic, Rainer
J\"akel, R\"udiger Dillmann, Eric Sax
- Abstract要約: 本稿では,部分認識型パノプティックセグメンテーションのためのニューラルネットワークであるEfficientPPSを提案する。
ロボットに、セマンティックにリッチな視覚情報を提供して、グリーピングとma-nipulationタスクに役立てる。
また、人間の関与を減らすために、教師なしのデータ収集とラベル付け手法を提案する。
- 参考スコア(独自算出の注目度): 1.0819401241801996
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The use of autonomous robots for assistance tasks in hospitals has the
potential to free up qualified staff and im-prove patient care. However, the
ubiquity of deformable and transparent objects in hospital settings poses
signif-icant challenges to vision-based perception systems. We present
EfficientPPS, a neural architecture for part-aware panoptic segmentation that
provides robots with semantically rich visual information for grasping and
ma-nipulation tasks. We also present an unsupervised data collection and
labelling method to reduce the need for human involvement in the training
process. EfficientPPS is evaluated on a dataset containing real-world hospital
objects and demonstrated to be robust and efficient in grasping transparent
transfusion bags with a collaborative robot arm.
- Abstract(参考訳): 病院での補助作業に自律ロボットを使うことは、資格のあるスタッフを解放し、患者のケアを中断する可能性がある。
しかし、病院環境における変形可能な透明な物体の多様さは、視覚に基づく知覚システムに顕著な課題をもたらす。
Efficient PPSは、ロボットに意味的にリッチな視覚情報を提供し、把握とマ・ニピュレーションのタスクを提供する部分認識型パノプティクスセグメンテーションのためのニューラルネットワークである。
また,教師なしのデータ収集とラベル付けによる学習プロセスへの人間的関与を減らす手法を提案する。
実世界の病院オブジェクトを含むデータセット上で効率的なPPSを評価し, ロボットアームによる透明輸血袋の把握において, 堅牢かつ効率的であることが実証された。
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - From Detection to Action Recognition: An Edge-Based Pipeline for Robot
Human Perception [5.262840821732319]
サービスロボットは人間の行動や意図を解釈するためにヒューマンアクション認識(HAR)に依存している。
本稿では,人間の検出と追跡から始まり,行動認識に至るプロセス全体を包含するエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2023-12-06T13:10:02Z) - Self-trained Panoptic Segmentation [0.0]
パノプティックセグメンテーションは、セグメンテーションとインスタンスセグメンテーションを組み合わせた重要なコンピュータビジョンタスクである。
近年の自己教師型学習手法の進歩は、擬似ラベルを生成するために、合成データと非ラベルデータを活用する大きな可能性を示している。
本研究の目的は,合成領域適応問題における自己学習を用いた埋め込み型自己教師型単眼セグメンテーションを実現するためのフレームワークを開発することである。
論文 参考訳(メタデータ) (2023-11-17T17:06:59Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Learning Visually Guided Latent Actions for Assistive Teleoperation [9.75385535829762]
視覚入力に潜伏埋め込みを条件とした補助ロボットを開発。
少量の安価で収集しやすい構造データに予め訓練されたオブジェクト検出器を組み込むことにより、i)現在のコンテキストを正確に認識し、ii)新しいオブジェクトやタスクへの制御埋め込みを一般化する。
論文 参考訳(メタデータ) (2021-05-02T23:58:28Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。