論文の概要: DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction
- arxiv url: http://arxiv.org/abs/2201.01367v1
- Date: Tue, 4 Jan 2022 22:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 14:16:37.110524
- Title: DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction
- Title(参考訳): DenseTact:Dense形状再構成のための光学触覚センサ
- Authors: Won Kyung Do and Monroe Kennedy III
- Abstract要約: 視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関しているため、広く利用されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデルを用いた,安価でスケーラブルでコンパクトな触覚センサを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Increasing the performance of tactile sensing in robots enables versatile,
in-hand manipulation. Vision-based tactile sensors have been widely used as
rich tactile feedback has been shown to be correlated with increased
performance in manipulation tasks. Existing tactile sensor solutions with high
resolution have limitations that include low accuracy, expensive components, or
lack of scalability. In this paper, an inexpensive, scalable, and compact
tactile sensor with high-resolution surface deformation modeling for surface
reconstruction of the 3D sensor surface is proposed. By measuring the image
from the fisheye camera, it is shown that the sensor can successfully estimate
the surface deformation in real-time (1.8ms) by using deep convolutional neural
networks. This sensor in its design and sensing abilities represents a
significant step toward better object in-hand localization, classification, and
surface estimation all enabled by high-resolution shape reconstruction.
- Abstract(参考訳): ロボットにおける触覚センシングの性能向上は、多目的で手動操作を可能にする。
視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関していることが示されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデリングによる安価でスケーラブルでコンパクトな触覚センサを提案する。
魚眼カメラから画像を測定することにより,深い畳み込みニューラルネットワークを用いて,センサがリアルタイム(1.8ms)の表面変形を推定できることが示されている。
このセンサの設計とセンシング能力は、高分解能形状再構成によってすべて可能となる、より優れたオブジェクトのローカライズ、分類、表面推定のための重要なステップである。
関連論文リスト
- TouchSDF: A DeepSDF Approach for 3D Shape Reconstruction using
Vision-Based Tactile Sensing [29.691786688595762]
人間は視覚と触覚に頼り、身体環境の総合的な3D理解を開発する。
触覚3次元形状再構成のための深層学習手法であるTouchSDFを提案する。
本手法は,(1)触覚画像をタッチ位置の局所メッシュにマッピングする畳み込みニューラルネットワーク,(2)署名された距離関数を予測して所望の3次元形状を抽出する暗黙的ニューラルネットワークの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-11-21T13:43:06Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Learning to Synthesize Volumetric Meshes from Vision-based Tactile
Imprints [26.118805500471066]
視覚ベースの触覚センサーは、通常、変形可能なエラストマーと上に取り付けられたカメラを使用して、コンタクトの高解像度な画像観察を行う。
本稿では,視覚に基づく触覚センサから得られた画像インプリントに基づいてエラストマーのメッシュを合成する学習に焦点を当てた。
グラフニューラルネットワーク(GNN)を導入し、教師付き学習で画像とメシュのマッピングを学習する。
論文 参考訳(メタデータ) (2022-03-29T00:24:10Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - GelSight Wedge: Measuring High-Resolution 3D Contact Geometry with a
Compact Robot Finger [8.047951969722794]
GelSight Wedgeセンサーは、高解像度の3D再構成を実現しつつ、ロボットの指のコンパクトな形状に最適化されている。
3次元空間におけるポーズ追跡のための再構成3次元幾何の有効性と可能性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:15:29Z) - Monocular Depth Estimation for Soft Visuotactile Sensors [24.319343057803973]
高密度内部(触覚)深度マップを内部小型赤外線イメージングセンサから直接推定するための最先端の単眼深度推定法の適用について検討した。
深層ネットワークは, ほとんどがテクスチャのない変形可能な流体充填センサ内において, より短い範囲(1~100mm)で精度の高い予測を行うために効果的に訓練できることを示す。
多種多様物体に対して10秒未満のランダムポーズを10秒未満で要求するオブジェクト非依存ネットワークを訓練する,単純な教師付き学習プロセスを提案する。
論文 参考訳(メタデータ) (2021-01-05T17:51:11Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。