論文の概要: Learning Tactile Models for Factor Graph-based Estimation
- arxiv url: http://arxiv.org/abs/2012.03768v2
- Date: Sun, 28 Mar 2021 19:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 13:28:47.529457
- Title: Learning Tactile Models for Factor Graph-based Estimation
- Title(参考訳): 因子グラフに基づく推定のための学習触覚モデル
- Authors: Paloma Sodhi, Michael Kaess, Mustafa Mukadam, Stuart Anderson
- Abstract要約: 視覚ベースの触覚センサーは、接触点におけるリッチで局所的な画像計測を提供する。
単一の測定には限られた情報が含まれ、潜在的なオブジェクト状態を推測するために複数の測定が必要です。
そこで我々は,まず,地中真理データに基づく局所触覚観測モデルを学習し,それらのモデルと物理および幾何学的要素を因子グラフに統合する2段階のアプローチを提案する。
- 参考スコア(独自算出の注目度): 24.958055047646628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We're interested in the problem of estimating object states from touch during
manipulation under occlusions. In this work, we address the problem of
estimating object poses from touch during planar pushing. Vision-based tactile
sensors provide rich, local image measurements at the point of contact. A
single such measurement, however, contains limited information and multiple
measurements are needed to infer latent object state. We solve this inference
problem using a factor graph. In order to incorporate tactile measurements in
the graph, we need local observation models that can map high-dimensional
tactile images onto a low-dimensional state space. Prior work has used
low-dimensional force measurements or engineered functions to interpret tactile
measurements. These methods, however, can be brittle and difficult to scale
across objects and sensors. Our key insight is to directly learn tactile
observation models that predict the relative pose of the sensor given a pair of
tactile images. These relative poses can then be incorporated as factors within
a factor graph. We propose a two-stage approach: first we learn local tactile
observation models supervised with ground truth data, and then integrate these
models along with physics and geometric factors within a factor graph
optimizer. We demonstrate reliable object tracking using only tactile feedback
for 150 real-world planar pushing sequences with varying trajectories across
three object shapes. Supplementary video: https://youtu.be/y1kBfSmi8w0
- Abstract(参考訳): 咬合下での操作時のタッチから物体状態を推定する問題に興味がある。
本研究では,平面押下時のタッチから物体のポーズを推定する問題に対処する。
視覚ベースの触覚センサーは、接触点におけるリッチで局所的な画像計測を提供する。
しかし、そのような測定には限られた情報が含まれており、潜伏状態の推測には複数の測定が必要である。
この推論問題を因子グラフを用いて解く。
触覚測定をグラフに組み込むためには,高次元の触覚画像を低次元の状態空間にマッピングできる局所観測モデルが必要である。
以前の研究では、触覚測定を解釈するために低次元の力測定や工学的機能を使用してきた。
しかし、これらの方法は脆く、物体やセンサーにまたがるスケールが困難である。
私たちの重要な洞察は、触覚画像からセンサーの相対的な位置を予測する触覚観察モデルを直接学習することだ。
これらの相対的なポーズは、因子グラフ内の因子として組み込むことができる。
そこで我々は,まず,地中真理データに基づく局所触覚観測モデルを学習し,それらのモデルと物理および幾何学的要素を因子グラフオプティマイザに統合する2段階のアプローチを提案する。
3つの物体形状にまたがる様々な軌跡を持つ150の実世界の平面プッシュシーケンスに対して触覚フィードバックのみを用いて,信頼性の高い物体追跡を行う。
追加ビデオ: https://youtu.be/y1kbfsmi8w0
関連論文リスト
- GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Tac2Pose: Tactile Object Pose Estimation from the First Touch [6.321662423735226]
触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
論文 参考訳(メタデータ) (2022-04-25T14:43:48Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z) - Teaching Cameras to Feel: Estimating Tactile Physical Properties of
Surfaces From Images [4.666400601228301]
本稿では,視覚情報から触覚特性の集合を推定する課題を紹介する。
我々は400以上のマルチビュー画像列とそれに対応する触覚特性を持つ画像触覚データセットの1つを構築した。
対向目的と新規なビジュオ触覚関節分類損失からなるクロスモーダルフレームワークを開発した。
論文 参考訳(メタデータ) (2020-04-29T21:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。