論文の概要: RoboSense At Edge: Detecting Slip, Crumple and Shape of the Object in
Robotic Hand for Teleoprations
- arxiv url: http://arxiv.org/abs/2311.07888v1
- Date: Tue, 14 Nov 2023 03:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 15:28:30.670038
- Title: RoboSense At Edge: Detecting Slip, Crumple and Shape of the Object in
Robotic Hand for Teleoprations
- Title(参考訳): RoboSense at Edge:遠隔操作のためのロボットハンドにおける物体のすべり, 柱, 形状の検出
- Authors: Sudev Kumar Padhi, Mohit Kumar, Debanka Giri, Subidh Ali
- Abstract要約: 遠隔手術のようなロボットハンド(RH)で堅牢な操作を行うためには,スリップとクレムプル検出が不可欠である。
本研究では,現在ロボットハンドに保持されている物体の形状だけでなく,スリップやクルムプルを検出する機械学習(ML)に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 1.1789204193530416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Slip and crumple detection is essential for performing robust manipulation
tasks with a robotic hand (RH) like remote surgery. It has been one of the
challenging problems in the robotics manipulation community. In this work, we
propose a technique based on machine learning (ML) based techniques to detect
the slip, and crumple as well as the shape of an object that is currently held
in the robotic hand. We proposed ML model will detect the slip, crumple, and
shape using the force/torque exerted and the angular positions of the actuators
present in the RH. The proposed model would be integrated into the loop of a
robotic hand(RH) and haptic glove(HG). This would help us to reduce the latency
in case of teleoperation
- Abstract(参考訳): 遠隔手術のようなロボットハンド(RH)で堅牢な操作を行うためには,スリップとクレムプル検出が不可欠である。
これはロボット操作コミュニティにおける課題の1つだ。
本研究では,現在ロボットハンドに保持されている物体の形状だけでなく,スリップやくずを検出する機械学習(ML)に基づく手法を提案する。
提案するMLモデルは,RH内に存在する力/トルクとアクチュエータの角位置を用いて,スリップ,クレムプル,形状を検出する。
提案されたモデルは、ロボットハンド(rh)と触覚グローブ(hg)のループに統合される。
これは遠隔操作時の遅延を減らすのに役立ちます
関連論文リスト
- Kinematically Constrained Human-like Bimanual Robot-to-Human Handovers [19.052211315080044]
双方向のハンドオーバは、大きな、変形可能な、または繊細なオブジェクトの転送に不可欠である。
本稿では,人体に拘束されたロボット動作を生成するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-22T13:19:02Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Proprioceptive External Torque Learning for Floating Base Robot and its
Applications to Humanoid Locomotion [17.384713355349476]
本稿では,浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点浮動小数点
実際のロボット実験では、ネットワークは外部トルクと接触レンチをはるかに小さな誤差で推定できることを示した。
また,ゼロモーメントポイント(ZMP)フィードバック制御において,推定した接触レンチが有効であることを示す。
論文 参考訳(メタデータ) (2023-09-08T05:33:56Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Deep Functional Predictive Control for Strawberry Cluster Manipulation
using Tactile Prediction [6.365634303789478]
本稿では,ロボットプッシュタスクにおけるPRI(Physical Robot Interaction)の問題に対処するための新しいアプローチを提案する。
このアプローチでは、触覚予測に基づくデータ駆動のフォワードモデルを使用して、プッシュされるオブジェクトの将来的な動きについてコントローラに通知する。
論文 参考訳(メタデータ) (2023-03-09T16:31:35Z) - In-air Knotting of Rope using Dual-Arm Robot based on Deep Learning [8.365690203298966]
深層学習に基づく双腕二本指ロボットを用いて,ロープの空中結節を成功させた。
全ての対象状態に対応する適切なロボット動作のマニュアル記述を事前に作成することは困難である。
そこで我々は,ロボットに2つの深層ニューラルネットワークを訓練し,そのセンサモデレータから収集したデータに基づいてボクノットとオーバーハンドノットを行うよう指示するモデルを構築した。
論文 参考訳(メタデータ) (2021-03-17T02:11:58Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。