論文の概要: COVERED, CollabOratiVE Robot Environment Dataset for 3D Semantic
segmentation
- arxiv url: http://arxiv.org/abs/2302.12656v1
- Date: Fri, 24 Feb 2023 14:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 13:28:57.172077
- Title: COVERED, CollabOratiVE Robot Environment Dataset for 3D Semantic
segmentation
- Title(参考訳): 3次元セマンティックセグメンテーションのためのCoVERED, CollabOratiVEロボット環境データセット
- Authors: Charith Munasinghe, Fatemeh Mohammadi Amin, Davide Scaramuzza, Hans
Wernher van de Venn
- Abstract要約: この研究は、このユースケース用に特別に設計された"CoVERED"という新しいデータセットを開発する。
本稿では,現在最先端(SOTA)アルゴリズムの性能をデータセット上で評価し,マルチLiDARシステムを用いた協調作業空間のリアルタイムセマンティックセマンティックセグメンテーションを実演する。
我々の知覚パイプラインは、8Hzのスループットを維持しながら、予測点精度が$>96%、$>92%の平均交叉率(mIOU)で20Hzのスループットを達成する。
- 参考スコア(独自算出の注目度): 39.64058995273062
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Safe human-robot collaboration (HRC) has recently gained a lot of interest
with the emerging Industry 5.0 paradigm. Conventional robots are being replaced
with more intelligent and flexible collaborative robots (cobots). Safe and
efficient collaboration between cobots and humans largely relies on the cobot's
comprehensive semantic understanding of the dynamic surrounding of industrial
environments. Despite the importance of semantic understanding for such
applications, 3D semantic segmentation of collaborative robot workspaces lacks
sufficient research and dedicated datasets. The performance limitation caused
by insufficient datasets is called 'data hunger' problem. To overcome this
current limitation, this work develops a new dataset specifically designed for
this use case, named "COVERED", which includes point-wise annotated point
clouds of a robotic cell. Lastly, we also provide a benchmark of current
state-of-the-art (SOTA) algorithm performance on the dataset and demonstrate a
real-time semantic segmentation of a collaborative robot workspace using a
multi-LiDAR system. The promising results from using the trained Deep Networks
on a real-time dynamically changing situation shows that we are on the right
track. Our perception pipeline achieves 20Hz throughput with a prediction point
accuracy of $>$96\% and $>$92\% mean intersection over union (mIOU) while
maintaining an 8Hz throughput.
- Abstract(参考訳): safe human-robot collaboration (hrc)は最近、新興業界5.0パラダイムに多くの関心を集めている。
従来のロボットはよりインテリジェントで柔軟な協調ロボット(cobots)に置き換えられている。
cobotと人間の安全かつ効率的なコラボレーションは、cobotの産業環境の動的環境に関する包括的意味理解に大きく依存している。
このようなアプリケーションにおける意味理解の重要性にもかかわらず、協調ロボットワークスペースの3次元意味セグメンテーションには十分な研究と専用のデータセットが欠けている。
不十分なデータセットに起因するパフォーマンス上の制限は、"data hunger"問題と呼ばれる。
この現在の制限を克服するために、この研究は、ロボットセルのポイントワイドの注釈付き点雲を含む"COVERED"と呼ばれるこのユースケース用に特別に設計された新しいデータセットを開発する。
最後に,現在最先端(SOTA)アルゴリズムの性能をデータセット上で評価し,マルチLiDARシステムを用いた協調作業空間のリアルタイムセマンティックセマンティックセグメンテーションを示す。
リアルタイムに動的に変化する状況でトレーニングされたDeep Networksを使用することによる有望な結果は、私たちが正しい軌道にいることを示している。
我々の知覚パイプラインは、8Hzのスループットを維持しながら、予測点精度を$>96\%、$>92\%の平均交叉率(mIOU)で20Hzのスループットを達成する。
関連論文リスト
- The Collection of a Human Robot Collaboration Dataset for Cooperative Assembly in Glovebox Environments [2.30069810310356]
産業4.0は、製造プロセスの近代化のための変革的ソリューションとしてAIを導入した。その後継である産業5.0は、AI駆動ソリューションを導くために、人間を協力者と専門家として想定している。
新しい技術は、共同組み立て中にシーン、特に手の位置を安全かつリアルタイムに識別できるアルゴリズムを必要とする。
このデータセットは、産業的な人間のコラボレーションシナリオにおいて、手動と手袋のセグメンテーションに向けたアプリケーションを構築する上で、1200の難しい例を提供します。
論文 参考訳(メタデータ) (2024-07-19T19:56:53Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments [52.425280825457385]
本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
論文 参考訳(メタデータ) (2023-10-09T10:35:37Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - HARPS: An Online POMDP Framework for Human-Assisted Robotic Planning and
Sensing [1.3678064890824186]
HARPS(Human Assisted Robotic Planning and Sensing)フレームワークは、ロボットチームにおけるアクティブなセマンティックセンシングと計画のためのフレームワークである。
このアプローチにより、人間が不規則にモデル構造を強制し、不確実な環境で意味的なソフトデータの範囲を拡張することができる。
大規模部分構造環境におけるUAV対応ターゲット探索アプリケーションのシミュレーションは、時間と信念状態の推定において著しく改善されている。
論文 参考訳(メタデータ) (2021-10-20T00:41:57Z) - Cross-Modal Analysis of Human Detection for Robotics: An Industrial Case
Study [7.844709223688293]
ロボット工学で典型的に使用されるセンサとアルゴリズムの組み合わせの系統的相互モーダル分析を行う。
2Dレンジデータ,3Dライダーデータ,RGB-Dデータに対する最先端人検知器の性能の比較を行った。
我々は、強力な画像ベースRGB-D検出器を拡張し、弱い3次元境界ボックスラベルの形でライダー検出器の相互監視を行う。
論文 参考訳(メタデータ) (2021-08-03T13:33:37Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。