論文の概要: Elastic Interaction of Particles for Robotic Tactile Simulation
- arxiv url: http://arxiv.org/abs/2011.11528v1
- Date: Mon, 23 Nov 2020 16:37:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 03:05:37.977633
- Title: Elastic Interaction of Particles for Robotic Tactile Simulation
- Title(参考訳): ロボット触覚シミュレーションのための粒子の弾性相互作用
- Authors: Yikai Wang, Wenbing Huang, Bin Fang, Fuchun Sun
- Abstract要約: 触覚エミュレーションのための新しいフレームワークであるElastic Interaction of Particles (EIP)を提案する。
EIPは触覚センサを協調粒子群としてモデル化し、弾性理論を適用して接触過程における粒子の変形を制御する。
提案手法の有効性を検証する実験を2つのアプリケーションで行った。
- 参考スコア(独自算出の注目度): 43.933808122317274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensing plays an important role in robotic perception and
manipulation. To overcome the real-world limitations of data collection,
simulating tactile response in virtual environment comes as a desire direction
of robotic research. Most existing works model the tactile sensor as a rigid
multi-body, which is incapable of reflecting the elastic property of the
tactile sensor as well as characterizing the fine-grained physical interaction
between two objects. In this paper, we propose Elastic Interaction of Particles
(EIP), a novel framework for tactile emulation. At its core, EIP models the
tactile sensor as a group of coordinated particles, and the elastic theory is
applied to regulate the deformation of particles during the contact process.
The implementation of EIP is conducted from scratch, without resorting to any
existing physics engine. Experiments to verify the effectiveness of our method
have been carried out on two applications: robotic perception with tactile data
and 3D geometric reconstruction by tactile-visual fusion. It is possible to
open up a new vein for robotic tactile simulation, and contribute to various
downstream robotic tasks.
- Abstract(参考訳): 触覚センシングは、ロボットの知覚と操作において重要な役割を果たす。
データ収集の現実世界の限界を克服するために、仮想環境における触覚応答をシミュレートすることはロボット研究の欲望の方向である。
既存のほとんどの研究は、触覚センサを剛性多体としてモデル化しており、触覚センサの弾性特性を反映するだけでなく、2つの物体間の微細な物理的相互作用を特徴づけることができない。
本稿では,触覚エミュレーションのための新しいフレームワークであるElastic Interaction of Particles (EIP)を提案する。
中心となるEIPは、触覚センサを座標粒子のグループとしてモデル化し、弾性理論を適用して接触過程における粒子の変形を調節する。
EIPの実装は、既存の物理エンジンに頼ることなく、ゼロから行われる。
触覚データを用いたロボット知覚と触覚-視覚融合による3次元幾何学的再構成の2つの応用において,提案手法の有効性を検証する実験を行った。
ロボット触覚シミュレーションのための新しい静脈を開き、下流の様々なロボットタスクに寄与することができる。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Combining Vision and Tactile Sensation for Video Prediction [0.0]
本研究では,触覚フィードバックを映像予測モデルに組み込んだ物理的ロボットインタラクションの効果について検討する。
磁気ベースの触覚センサを用いて教師なし学習を行うロボットプッシュの2つの新しいデータセットを紹介した。
以上の結果から,触覚フィードバックを映像予測モデルに組み込むことにより,シーン予測精度が向上し,エージェントの身体的相互作用に対する認識が向上することが示唆された。
論文 参考訳(メタデータ) (2023-04-21T18:02:15Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Learning Intuitive Physics with Multimodal Generative Models [24.342994226226786]
本稿では,視覚と触覚のフィードバックを融合させ,動的シーンにおける物体の動きを予測する枠組みを提案する。
我々は、接触面の高解像度マルチモーダルセンシングを提供する新しいSee-Through-your-Skin(STS)センサを使用します。
物体の静止状態を所定の初期条件から予測するシミュレーションおよび実世界の実験を通じて検証する。
論文 参考訳(メタデータ) (2021-01-12T12:55:53Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。