論文の概要: Rigid-Soft Interactive Learning for Robust Grasping
- arxiv url: http://arxiv.org/abs/2003.01584v1
- Date: Sat, 29 Feb 2020 22:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 21:01:31.374020
- Title: Rigid-Soft Interactive Learning for Robust Grasping
- Title(参考訳): ロバスト把持のための剛体ソフト対話型学習
- Authors: Linhan Yang, Fang Wan, Haokun Wang, Xiaobo Liu, Yujia Liu, Jia Pan,
Chaoyang Song
- Abstract要約: 広範に使われているソフトフィンガーに触発されて,剛性・ソフトな対話型学習法を提案する。
我々は,グリッパーと対象物との相互作用面に基づいて,インタラクションカテゴリをRigid-Rigid,Rigid-Soft,Soft-Rigidに分類する。
私たちは、日常の物体ではなく、柔らかいぬいぐるみを使って、統合の複雑さと計算の負担を軽減する。
- 参考スコア(独自算出の注目度): 24.3019805067512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by widely used soft fingers on grasping, we propose a method of
rigid-soft interactive learning, aiming at reducing the time of data
collection. In this paper, we classify the interaction categories into
Rigid-Rigid, Rigid-Soft, Soft-Rigid according to the interaction surface
between grippers and target objects. We find experimental evidence that the
interaction types between grippers and target objects play an essential role in
the learning methods. We use soft, stuffed toys for training, instead of
everyday objects, to reduce the integration complexity and computational burden
and exploit such rigid-soft interaction by changing the gripper fingers to the
soft ones when dealing with rigid, daily-life items such as the
Yale-CMU-Berkeley (YCB) objects. With a small data collection of 5K picking
attempts in total, our results suggest that such Rigid-Soft and Soft-Rigid
interactions are transferable. Moreover, the combination of different grasp
types shows better performance on the grasping test. We achieve the best
grasping performance at 97.5\% for easy YCB objects and 81.3\% for difficult
YCB objects while using a precise grasp with a two-soft-finger gripper to
collect training data and power grasp with a four-soft-finger gripper to test.
- Abstract(参考訳): そこで本研究では,データ収集時間を削減することを目的とした,ソフトなソフトな対話型学習法を提案する。
本稿では, グリッパーと対象物との相互作用面に応じて, 剛剛剛性, 剛軟, 軟剛性に分類した。
学習手法において,グリップパーと対象物との相互作用型が重要な役割を担っていることを示す。
また,Yale-CMU-Berkeley(YCB)オブジェクトのような固い日常的なアイテムを扱う際に,握り指をソフトなものに変更することにより,統合の複雑さと計算負担を低減し,そのような硬いソフトなインタラクションを活用する。
また,5Kピッキングによるデータ収集では,Rigid-SoftとSoft-Rigidの相互作用が転送可能であることが示唆された。
また, 異なる把持型の組み合わせにより, 把持テストの性能が向上した。
簡単なycbオブジェクトでは97.5\%,難しいycbオブジェクトでは81.3\%,2本のソフトフィンガーグリッパーでは81.3\%で,トレーニングデータとパワーグリップを4本のソフトフィンガーグリッパーで収集してテストする。
関連論文リスト
- Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Controllable Relation Disentanglement for Few-Shot Class-Incremental Learning [82.79371269942146]
本稿では,FewShot Class-Incremental Learning (FSCIL) を新たな視点,すなわち関係の絡み合いから扱うことを提案する。
急激な相関関係を切り離すことの課題は、FSCILの制御性が悪いことである。
我々は、CTRL-FSCIL(Controllable Relation-disentang FewShot Class-Incremental Learning)と呼ばれる、新しいシンプルな効果のある手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T03:16:59Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Multimodal and Force-Matched Imitation Learning with a See-Through Visuotactile Sensor [14.492202828369127]
我々は、模倣学習(IL)の枠組みの中でマルチモーダル・ビゾタクタクタブル・センサを活用し、コンタクトリッチなタスクを実行する。
本稿では,IL改善のための補完手法として,触覚力マッチングと学習モード切替という2つのアルゴリズム的貢献を紹介する。
以上の結果から, 力の一致が平均政策成功率62.5%, ビズオタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタク
論文 参考訳(メタデータ) (2023-11-02T14:02:42Z) - Hybrid-SORT: Weak Cues Matter for Online Multi-Object Tracking [51.16677396148247]
Multi-Object Tracking (MOT) は、望まれるすべてのオブジェクトをフレーム間で検出し、関連付けることを目的としている。
本稿では,MOTにおけるこの長期的課題を,弱い手がかりを取り入れることで,効果的かつ効果的に解決できることを実証する。
提案手法は,MOT17,MOT20,特にDanceTrackなど,様々なベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-01T18:53:24Z) - Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy [6.739132519488627]
本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。
我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。
その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction [21.03434784990944]
本稿では,グリップと対象物との空間的相互作用を特徴付ける把握状態の効果的な表現を提案する。
IBSは,対象物に対する空間的関係で各指のきめ細かい制御を十分に通知するので,状態表現として驚くほど効果的である。
実験により, 円滑な把持動作を有する複雑な形状に対して, 高品質なデキスタラスグリップを生成することが示された。
論文 参考訳(メタデータ) (2022-04-03T07:03:54Z) - AdaAfford: Learning to Adapt Manipulation Affordance for 3D Articulated
Objects via Few-shot Interactions [13.802675708793014]
キャビネット、ドア、蛇口などの3D音声による物体の認識と相互作用は、将来のホームアシストロボットに特別な課題をもたらす。
我々はAdaAffordという名の新しいフレームワークを提案し、より正確なインスタンス固有の後付けに手軽さを迅速に適応するために、ごく少数のテスト時間インタラクションを実行することを学習する。
論文 参考訳(メタデータ) (2021-12-01T03:00:05Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Gaining a Sense of Touch. Physical Parameters Estimation using a Soft
Gripper and Neural Networks [3.0892724364965005]
ロボットグリップを用いた物体との直接相互作用の測定における深層学習アルゴリズムを用いた物理パラメータ推定に関する十分な研究はない。
本研究では、剛性係数の回帰をトレーニング可能なシステムを提案し、物理シミュレータ環境を用いて広範な実験を行った。
本システムでは,Yale OpenHandソフトグリップを用いて,指に装着した慣性測定ユニット(IMU)の読み値に基づいて,物体の硬さを確実に推定することができる。
論文 参考訳(メタデータ) (2020-03-02T11:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。