論文の概要: Pose Forecasting in Industrial Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2208.07308v1
- Date: Sun, 24 Jul 2022 12:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:37:14.096475
- Title: Pose Forecasting in Industrial Human-Robot Collaboration
- Title(参考訳): 産業ロボットコラボレーションにおけるポース予測
- Authors: Alessio Sampieri, Guido D'Amely, Andrea Avogaro, Federico Cunico, Geri
Skenderi, Francesco Setti, Marco Cristani, Fabio Galasso
- Abstract要約: ポーズ予測のためのSeS-GCN(Separable-Sparse Graph Convolutional Network)を提案する。
最先端と比較して、パラメータの1.72%しか使用せず、4倍高速である。
産業協力(CHICO)におけるCobotsとHumansの新しいベンチマークを提案する。
- 参考スコア(独自算出の注目度): 10.572371700431589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pushing back the frontiers of collaborative robots in industrial
environments, we propose a new Separable-Sparse Graph Convolutional Network
(SeS-GCN) for pose forecasting. For the first time, SeS-GCN bottlenecks the
interaction of the spatial, temporal and channel-wise dimensions in GCNs, and
it learns sparse adjacency matrices by a teacher-student framework. Compared to
the state-of-the-art, it only uses 1.72% of the parameters and it is ~4 times
faster, while still performing comparably in forecasting accuracy on Human3.6M
at 1 second in the future, which enables cobots to be aware of human operators.
As a second contribution, we present a new benchmark of Cobots and Humans in
Industrial COllaboration (CHICO). CHICO includes multi-view videos, 3D poses
and trajectories of 20 human operators and cobots, engaging in 7 realistic
industrial actions. Additionally, it reports 226 genuine collisions, taking
place during the human-cobot interaction. We test SeS-GCN on CHICO for two
important perception tasks in robotics: human pose forecasting, where it
reaches an average error of 85.3 mm (MPJPE) at 1 sec in the future with a run
time of 2.3 msec, and collision detection, by comparing the forecasted human
motion with the known cobot motion, obtaining an F1-score of 0.64.
- Abstract(参考訳): 産業環境における協調型ロボットのフロンティアを後押しし、ポーズ予測のための分離型グラフ畳み込みネットワーク(SeS-GCN)を提案する。
初めて、SeS-GCNは、GCNの空間的、時間的、チャネル的次元の相互作用をボトルネックにし、教師が学習するフレームワークによって、スパース隣接行列を学習する。
最先端技術と比較すると、パラメータの1.72%しか使用せず、約4倍高速であるが、将来1秒でHuman3.6Mの予測精度は相変わらず向上し、コボットは人間のオペレーターを認識できる。
第2の貢献として,産業協力におけるCobotsとHumansの新しいベンチマークを提案する。
CHICOには、マルチビュービデオ、20人のオペレーターとコボットの3Dポーズと軌道が含まれ、7つの現実的な産業行動に関わっている。
さらに、人間とロボットの相互作用中に226回の本物の衝突を報告している。
今後1秒で平均誤差85.3mm(MPJPE)に到達し,動作時間2.3msecで衝突検出を行い,予測された人間の動きと既知のコボットの動きを比較し,F1スコア0.64を得る。
関連論文リスト
- Motion Prediction with Gaussian Processes for Safe Human-Robot Interaction in Virtual Environments [1.677718351174347]
衝突事故のリスクを最小限に抑えるため、共同作業型ロボットは人間との共同作業が安全でなければならない。
本研究の目的は,協調作業ロボットの安全性を向上しつつ,協調作業ロボットの効率を向上させることである。
論文 参考訳(メタデータ) (2024-05-15T05:51:41Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Staged Contact-Aware Global Human Motion Forecasting [7.930326095134298]
バーチャルリアリティー、ロボティクス、スポーツなどの多様体応用には、シーン認識のグローバルな人間の動き予測が不可欠である。
本稿では,3次元環境下でのグローバルな人間の動きを予測するための新しい3段階パイプラインSTAGを提案する。
STAGは、シーン認識のGTA-IMデータセット上で、ポーズと軌道予測の全体的な1.8%と16.2%の改善を達成する。
論文 参考訳(メタデータ) (2023-09-16T10:47:48Z) - Best Practices for 2-Body Pose Forecasting [58.661899246497896]
我々は、人間のポーズ予測の進捗状況を概観し、最善を尽くす一対一の実践を詳細に評価する。
他の1人のプラクティスは2体に移行しないため、提案されているベストプラクティスは階層的なボディモデリングや注目に基づくインタラクションエンコーディングは含まない。
提案した2体ポーズによるベストプラクティス予測では,最新のExPIデータセットのパフォーマンスが21.9%向上した。
論文 参考訳(メタデータ) (2023-04-12T10:46:23Z) - Robust Human Motion Forecasting using Transformer-based Model [14.088942546585068]
本研究では,リアルタイムな3次元人体動作予測を短時間・長期で処理するTransformerに基づく新しいモデルを提案する。
本モデルでは, 騒音の多い環境下での3次元動作の復元と予測において, 人間の動きが著しく抑制されている状況において, その頑健さを実証する。
我々のモデルは,400msの入力プレフィックスを持つHumanre3.6Mデータセットにおいて,短期予測におけるST-Transformerの平均2乗誤差を8.89%,長期予測で2.57%削減する。
論文 参考訳(メタデータ) (2023-02-16T13:06:39Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - STPOTR: Simultaneous Human Trajectory and Pose Prediction Using a
Non-Autoregressive Transformer for Robot Following Ahead [8.227864212055035]
観測された人間の動作履歴から将来の人間の動作を予測するニューラルネットワークモデルを開発した。
本研究では,自動回帰トランスフォーマアーキテクチャを提案し,その並列特性を利用して,テスト時の高速かつ高精度な予測を行う。
我々のモデルは、最先端の手法に関して、テスト精度と速度の観点からロボット応用に適している。
論文 参考訳(メタデータ) (2022-09-15T20:27:54Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。