論文の概要: Multi-Class Human/Object Detection on Robot Manipulators using Proprioceptive Sensing
- arxiv url: http://arxiv.org/abs/2508.02425v1
- Date: Mon, 04 Aug 2025 13:45:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.363378
- Title: Multi-Class Human/Object Detection on Robot Manipulators using Proprioceptive Sensing
- Title(参考訳): Proprioceptive Sensing を用いたロボットマニピュレータのマルチクラスヒューマン・オブジェクト検出
- Authors: Justin Hehli, Marco Heiniger, Maryam Rezayati, Hans Wernher van de Venn,
- Abstract要約: 本研究の目的は,3種類の人・物検出モデルを評価し,より詳細な接触解析を行うことである。
データセットはFranka Emika Pandaロボットマニピュレータを用いて収集され、時系列分析のための前処理戦略を探索した。
最高の性能モデルは、リアルタイムテスト中に91.11%の精度を達成し、マルチクラス検出モデルの実現可能性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In physical human-robot collaboration (pHRC) settings, humans and robots collaborate directly in shared environments. Robots must analyze interactions with objects to ensure safety and facilitate meaningful workflows. One critical aspect is human/object detection, where the contacted object is identified. Past research introduced binary machine learning classifiers to distinguish between soft and hard objects. This study improves upon those results by evaluating three-class human/object detection models, offering more detailed contact analysis. A dataset was collected using the Franka Emika Panda robot manipulator, exploring preprocessing strategies for time-series analysis. Models including LSTM, GRU, and Transformers were trained on these datasets. The best-performing model achieved 91.11\% accuracy during real-time testing, demonstrating the feasibility of multi-class detection models. Additionally, a comparison of preprocessing strategies suggests a sliding window approach is optimal for this task.
- Abstract(参考訳): 物理的人間ロボットコラボレーション(pHRC)では、人間とロボットは共有環境で直接協力する。
ロボットは、安全を確保し、意味のあるワークフローを促進するために、オブジェクトとのインタラクションを分析する必要がある。
1つの重要な側面は、接触した物体が識別される人間/物体検出である。
過去の研究では、ソフトオブジェクトとハードオブジェクトを区別するためにバイナリ機械学習分類器が導入された。
本研究は,3種類の人・物検出モデルを評価し,より詳細な接触解析を行うことにより,これらの結果を改善する。
データセットはFranka Emika Pandaロボットマニピュレータを用いて収集され、時系列分析のための前処理戦略を探索した。
LSTM、GRU、Transformerなどのモデルがこれらのデータセットでトレーニングされた。
最高の性能モデルは、リアルタイムテスト中に91.11\%の精度を達成し、マルチクラス検出モデルの実現可能性を示した。
さらに、前処理戦略の比較により、このタスクに最適なスライディングウインドウアプローチが示唆されている。
関連論文リスト
- A Data-Centric Revisit of Pre-Trained Vision Models for Robot Learning [67.72413262980272]
事前訓練された視覚モデル(PVM)は現代のロボティクスの基本であるが、その最適構成は定かではない。
セマンティック・ボトルネックを導入してオブジェクト中心の表現を誘導する手法であるSlotMIMを開発した。
提案手法は,画像認識,シーン理解,ロボット学習評価において,従来の作業よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-03-10T06:18:31Z) - Testing Human-Hand Segmentation on In-Distribution and Out-of-Distribution Data in Human-Robot Interactions Using a Deep Ensemble Model [40.815678328617686]
我々は、IDデータとより挑戦的なOODシナリオの両方の下で、事前学習されたディープラーニングモデルの性能を評価することによって、新しいアプローチを提案する。
動作の速い手から指を横切る動作や動きのぼやけなど,特異かつ稀な条件を取り入れた。
その結果、産業用データセットでトレーニングされたモデルは、非工業用データセットでトレーニングされたモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T21:52:46Z) - Sample Efficient Robot Learning in Supervised Effect Prediction Tasks [0.0]
MUSEL(Model Uncertainty for Sample-Efficient Learning)は、ロボット工学における回帰タスクに適した新しいALフレームワークである。
MUSELは学習精度とサンプル効率を両立させ,情報的サンプルを選択する学習行動効果の有効性を検証した。
論文 参考訳(メタデータ) (2024-12-03T09:48:28Z) - Mitigating the Human-Robot Domain Discrepancy in Visual Pre-training for Robotic Manipulation [16.809190349155525]
そこで本研究では,容易に利用可能な人間ロボットのビデオデータを利用して,ドメインギャップを埋める新しい適応パラダイムを提案する。
提案手法では,人間とロボットのビデオのセマンティクスを整列させるために,人間ロボットのアライメント損失を用いて,事前学習したモデルをパラメータ効率よくロボット領域に適応させる。
論文 参考訳(メタデータ) (2024-06-20T11:57:46Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Active Exploration in Bayesian Model-based Reinforcement Learning for Robot Manipulation [8.940998315746684]
ロボットアームのエンドタスクに対するモデルベース強化学習(RL)アプローチを提案する。
我々はベイズニューラルネットワークモデルを用いて、探索中に動的モデルに符号化された信念と情報の両方を確率論的に表現する。
実験により,ベイズモデルに基づくRL手法の利点が示された。
論文 参考訳(メタデータ) (2024-04-02T11:44:37Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。