論文の概要: Tactile-Filter: Interactive Tactile Perception for Part Mating
- arxiv url: http://arxiv.org/abs/2303.06034v2
- Date: Mon, 5 Jun 2023 13:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 02:40:43.065416
- Title: Tactile-Filter: Interactive Tactile Perception for Part Mating
- Title(参考訳): 触覚フィルター:部分交配のための対話的触覚
- Authors: Kei Ota, Devesh K. Jha, Hsiao-Yu Tung, Joshua B. Tenenbaum
- Abstract要約: 人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
- 参考スコア(独自算出の注目度): 54.46221808805662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans rely on touch and tactile sensing for a lot of dexterous manipulation
tasks. Our tactile sensing provides us with a lot of information regarding
contact formations as well as geometric information about objects during any
interaction. With this motivation, vision-based tactile sensors are being
widely used for various robotic perception and control tasks. In this paper, we
present a method for interactive perception using vision-based tactile sensors
for a part mating task, where a robot can use tactile sensors and a feedback
mechanism using a particle filter to incrementally improve its estimate of
objects (pegs and holes) that fit together. To do this, we first train a deep
neural network that makes use of tactile images to predict the probabilistic
correspondence between arbitrarily shaped objects that fit together. The
trained model is used to design a particle filter which is used twofold. First,
given one partial (or non-unique) observation of the hole, it incrementally
improves the estimate of the correct peg by sampling more tactile observations.
Second, it selects the next action for the robot to sample the next touch (and
thus image) which results in maximum uncertainty reduction to minimize the
number of interactions during the perception task. We evaluate our method on
several part-mating tasks with novel objects using a robot equipped with a
vision-based tactile sensor. We also show the efficiency of the proposed action
selection method against a naive method. See supplementary video at
https://www.youtube.com/watch?v=jMVBg_e3gLw .
- Abstract(参考訳): 人間はタッチと触覚のセンシングを、巧妙な操作に頼りにしている。
私たちの触覚センシングは、接触形成に関する多くの情報と、対話中の物体に関する幾何学的情報を提供します。
このモチベーションにより、視覚ベースの触覚センサーは様々なロボット認識や制御タスクに広く利用されている。
本稿では,ロボットが触覚センサと粒子フィルタを用いたフィードバック機構を用いて,協調した物体(ペグやホール)の推定を漸進的に改善できる,視覚ベースの触覚センサを用いた部品交尾作業のための対話的知覚手法を提案する。
これを実現するために,我々はまず触覚画像を用いて任意の形状の物体間の確率的対応を予測するディープニューラルネットワークを訓練する。
トレーニングされたモデルは、2倍の粒子フィルタの設計に使用される。
まず、ホールの1つの部分的な(または非特異な)観測が与えられた場合、より触覚的な観察をサンプリングすることで、正しいペグの推定を徐々に改善する。
第2に、ロボットが次のタッチ(つまり画像)をサンプリングする次のアクションを選択し、その結果、最大不確実性が減少し、知覚タスク中の相互作用の数を最小限に抑える。
視覚に基づく触覚センサを備えたロボットを用いて,新しい物体を用いた複数部分マッチングタスクについて評価を行った。
また,本提案手法の有効性を示す。
補足ビデオはhttps://www.youtube.com/watch?
v=jMVBg_e3gLw。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Combining Vision and Tactile Sensation for Video Prediction [0.0]
本研究では,触覚フィードバックを映像予測モデルに組み込んだ物理的ロボットインタラクションの効果について検討する。
磁気ベースの触覚センサを用いて教師なし学習を行うロボットプッシュの2つの新しいデータセットを紹介した。
以上の結果から,触覚フィードバックを映像予測モデルに組み込むことにより,シーン予測精度が向上し,エージェントの身体的相互作用に対する認識が向上することが示唆された。
論文 参考訳(メタデータ) (2023-04-21T18:02:15Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Visual-Tactile Multimodality for Following Deformable Linear Objects
Using Reinforcement Learning [15.758583731036007]
本稿では,視覚と触覚入力を併用して変形可能な線形物体を追従するタスクを完遂する問題について検討する。
我々は,異なる感覚モーダルを用いた強化学習エージェントを作成し,その動作をどのように促進するかを検討する。
実験の結果,視覚入力と触覚入力の両方を使用することで,最大92%の症例で作業が完了することがわかった。
論文 参考訳(メタデータ) (2022-03-31T21:59:08Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition [17.37142241982902]
フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-01T03:35:15Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。