論文の概要: TANDEM: Learning Joint Exploration and Decision Making with Tactile
Sensors
- arxiv url: http://arxiv.org/abs/2203.00798v1
- Date: Tue, 1 Mar 2022 23:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 14:21:05.177356
- Title: TANDEM: Learning Joint Exploration and Decision Making with Tactile
Sensors
- Title(参考訳): TANDEM:触覚センサによる共同探索と意思決定の学習
- Authors: Jingxi Xu, Shuran Song, Matei Ciocarlie
- Abstract要約: 我々は,触覚探索の指導プロセスとタスク関連意思決定との相互作用に焦点を当てた。
意思決定と協調して効率的な探索戦略を学習するアーキテクチャであるTANDEMを提案する。
本手法は,触覚フィードバックのみに基づいて,触覚センサを備えたロボットが既知の集合から物体を探索・識別する必要がある触覚物体認識タスクにおいて実証する。
- 参考スコア(独自算出の注目度): 15.418884994244996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the human ability to perform complex manipulation in the complete
absence of vision (like retrieving an object from a pocket), the robotic
manipulation field is motivated to develop new methods for tactile-based object
interaction. However, tactile sensing presents the challenge of being an active
sensing modality: a touch sensor provides sparse, local data, and must be used
in conjunction with effective exploration strategies in order to collect
information. In this work, we focus on the process of guiding tactile
exploration, and its interplay with task-related decision making. We propose
TANDEM (TActile exploration aNd DEcision Making), an architecture to learn
efficient exploration strategies in conjunction with decision making. Our
approach is based on separate but co-trained modules for exploration and
discrimination. We demonstrate this method on a tactile object recognition
task, where a robot equipped with a touch sensor must explore and identify an
object from a known set based on tactile feedback alone. TANDEM achieves higher
accuracy with fewer actions than alternative methods and is also shown to be
more robust to sensor noise.
- Abstract(参考訳): 人間の視覚の完全な欠如(ポケットから物体を取り出すなど)で複雑な操作を行う能力にインスパイアされたロボット操作フィールドは、触覚に基づくオブジェクトインタラクションの新しい方法を開発する動機となっている。
しかし、触覚センサーは、触覚が活発な感覚のモダリティであることの課題である: 触覚センサは、スパースで局所的なデータを提供し、情報を収集するために効果的な探索戦略と併用する必要がある。
本研究では,触覚探索を指導するプロセスと,タスク関連意思決定との相互作用に注目した。
我々は,意思決定と協調して効率的な探索戦略を学習するアーキテクチャであるタンデム(TADEM)を提案する。
我々のアプローチは、探索と識別のために、別々に訓練されたモジュールに基づいている。
本手法は,触覚フィードバックのみに基づいて,触覚センサを備えたロボットが既知の集合から物体を探索・識別する必要がある触覚物体認識タスクにおいて実証する。
TANDEMは、他の方法よりも少ない動作で高い精度を実現し、センサノイズに対してより堅牢であることを示す。
関連論文リスト
- Tactile-based Object Retrieval From Granular Media [17.340244278653785]
本稿では,粒状体に埋もれた物体を回収するロボット操作手法であるGEOTACTを紹介する。
我々は,この問題の定式化が,マニピュレータが不確実性を低減するために使用する学習的プッシュ動作の自然発生に繋がることを示す。
また、シミュレーションでこれらの動作を学習し、その後、実際のハードウェアにゼロショットで転送する訓練カリキュラムも導入する。
論文 参考訳(メタデータ) (2024-02-07T02:50:56Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Touch-based Curiosity for Sparse-Reward Tasks [15.766198618516137]
タッチフィードバックのミスマッチからサプライズを使用して,難解な強化学習タスクの探索をガイドしています。
私たちのアプローチであるタッチベースのCuriosity(ToC)は、目に見えるオブジェクトの相互作用が「感じる」ことを学習します。
我々はタッチ集約型ロボットアームタスクにアプローチを試行する。
論文 参考訳(メタデータ) (2021-04-01T12:49:29Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。