論文の概要: Rigid-Soft Interactive Learning for Robust Grasping
- arxiv url: http://arxiv.org/abs/2003.01584v1
- Date: Sat, 29 Feb 2020 22:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 21:01:31.374020
- Title: Rigid-Soft Interactive Learning for Robust Grasping
- Title(参考訳): ロバスト把持のための剛体ソフト対話型学習
- Authors: Linhan Yang, Fang Wan, Haokun Wang, Xiaobo Liu, Yujia Liu, Jia Pan,
Chaoyang Song
- Abstract要約: 広範に使われているソフトフィンガーに触発されて,剛性・ソフトな対話型学習法を提案する。
我々は,グリッパーと対象物との相互作用面に基づいて,インタラクションカテゴリをRigid-Rigid,Rigid-Soft,Soft-Rigidに分類する。
私たちは、日常の物体ではなく、柔らかいぬいぐるみを使って、統合の複雑さと計算の負担を軽減する。
- 参考スコア(独自算出の注目度): 24.3019805067512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by widely used soft fingers on grasping, we propose a method of
rigid-soft interactive learning, aiming at reducing the time of data
collection. In this paper, we classify the interaction categories into
Rigid-Rigid, Rigid-Soft, Soft-Rigid according to the interaction surface
between grippers and target objects. We find experimental evidence that the
interaction types between grippers and target objects play an essential role in
the learning methods. We use soft, stuffed toys for training, instead of
everyday objects, to reduce the integration complexity and computational burden
and exploit such rigid-soft interaction by changing the gripper fingers to the
soft ones when dealing with rigid, daily-life items such as the
Yale-CMU-Berkeley (YCB) objects. With a small data collection of 5K picking
attempts in total, our results suggest that such Rigid-Soft and Soft-Rigid
interactions are transferable. Moreover, the combination of different grasp
types shows better performance on the grasping test. We achieve the best
grasping performance at 97.5\% for easy YCB objects and 81.3\% for difficult
YCB objects while using a precise grasp with a two-soft-finger gripper to
collect training data and power grasp with a four-soft-finger gripper to test.
- Abstract(参考訳): そこで本研究では,データ収集時間を削減することを目的とした,ソフトなソフトな対話型学習法を提案する。
本稿では, グリッパーと対象物との相互作用面に応じて, 剛剛剛性, 剛軟, 軟剛性に分類した。
学習手法において,グリップパーと対象物との相互作用型が重要な役割を担っていることを示す。
また,Yale-CMU-Berkeley(YCB)オブジェクトのような固い日常的なアイテムを扱う際に,握り指をソフトなものに変更することにより,統合の複雑さと計算負担を低減し,そのような硬いソフトなインタラクションを活用する。
また,5Kピッキングによるデータ収集では,Rigid-SoftとSoft-Rigidの相互作用が転送可能であることが示唆された。
また, 異なる把持型の組み合わせにより, 把持テストの性能が向上した。
簡単なycbオブジェクトでは97.5\%,難しいycbオブジェクトでは81.3\%,2本のソフトフィンガーグリッパーでは81.3\%で,トレーニングデータとパワーグリップを4本のソフトフィンガーグリッパーで収集してテストする。
関連論文リスト
- Explore Synergistic Interaction Across Frames for Interactive Video
Object Segmentation [70.93295323156876]
複数のフレームを同時に受け入れることのできるフレームワークを提案し、フレーム間の相乗的相互作用(SIAF)を探索する。
我々のSwinB-SIAFはDAVIS 2017(89.6%、J&F@60)で最先端のパフォーマンスを達成した
我々のR50-SIAFは、挑戦的なマルチオブジェクトシナリオの下で、最先端の競合製品よりも3倍高速です。
論文 参考訳(メタデータ) (2024-01-23T04:19:15Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Interactive segmentation in aerial images: a new benchmark and an open
access web-based tool [2.729446374377189]
近年,コンピュータビジョンにおける対話型セマンティックセマンティックセマンティクスは,人間とコンピュータの相互作用セマンティクスの理想的な状態を実現している。
本研究の目的は,対話型セグメンテーションモデルのベンチマークにより,対話型セグメンテーションとリモートセンシング分析のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-08-25T04:49:49Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - Learning to Detect Slip through Tactile Measures of the Contact Force
Field and its Entropy [7.870956277537863]
本研究では,スリップをリアルタイムに検出する物理インフォームド・データ駆動方式を提案する。
光学式触覚センサーであるGelSight Miniは、触覚を読み取るためのグリップに装着されている。
その結果,最良分類アルゴリズムは平均99%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction [21.03434784990944]
本稿では,グリップと対象物との空間的相互作用を特徴付ける把握状態の効果的な表現を提案する。
IBSは,対象物に対する空間的関係で各指のきめ細かい制御を十分に通知するので,状態表現として驚くほど効果的である。
実験により, 円滑な把持動作を有する複雑な形状に対して, 高品質なデキスタラスグリップを生成することが示された。
論文 参考訳(メタデータ) (2022-04-03T07:03:54Z) - AdaAfford: Learning to Adapt Manipulation Affordance for 3D Articulated
Objects via Few-shot Interactions [13.802675708793014]
キャビネット、ドア、蛇口などの3D音声による物体の認識と相互作用は、将来のホームアシストロボットに特別な課題をもたらす。
我々はAdaAffordという名の新しいフレームワークを提案し、より正確なインスタンス固有の後付けに手軽さを迅速に適応するために、ごく少数のテスト時間インタラクションを実行することを学習する。
論文 参考訳(メタデータ) (2021-12-01T03:00:05Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Gaining a Sense of Touch. Physical Parameters Estimation using a Soft
Gripper and Neural Networks [3.0892724364965005]
ロボットグリップを用いた物体との直接相互作用の測定における深層学習アルゴリズムを用いた物理パラメータ推定に関する十分な研究はない。
本研究では、剛性係数の回帰をトレーニング可能なシステムを提案し、物理シミュレータ環境を用いて広範な実験を行った。
本システムでは,Yale OpenHandソフトグリップを用いて,指に装着した慣性測定ユニット(IMU)の読み値に基づいて,物体の硬さを確実に推定することができる。
論文 参考訳(メタデータ) (2020-03-02T11:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。