論文の概要: A soft thumb-sized vision-based sensor with accurate all-round force
perception
- arxiv url: http://arxiv.org/abs/2111.05934v1
- Date: Wed, 10 Nov 2021 20:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 14:09:33.562126
- Title: A soft thumb-sized vision-based sensor with accurate all-round force
perception
- Title(参考訳): 正確な全周力知覚を有するソフトサムサイズ視覚センサ
- Authors: Huanbo Sun, Katherine J. Kuchenbecker, Georg Martius
- Abstract要約: 視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
- 参考スコア(独自算出の注目度): 19.905154050561013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based haptic sensors have emerged as a promising approach to robotic
touch due to affordable high-resolution cameras and successful computer-vision
techniques. However, their physical design and the information they provide do
not yet meet the requirements of real applications. We present a robust, soft,
low-cost, vision-based, thumb-sized 3D haptic sensor named Insight: it
continually provides a directional force-distribution map over its entire
conical sensing surface. Constructed around an internal monocular camera, the
sensor has only a single layer of elastomer over-molded on a stiff frame to
guarantee sensitivity, robustness, and soft contact. Furthermore, Insight is
the first system to combine photometric stereo and structured light using a
collimator to detect the 3D deformation of its easily replaceable flexible
outer shell. The force information is inferred by a deep neural network that
maps images to the spatial distribution of 3D contact force (normal and shear).
Insight has an overall spatial resolution of 0.4 mm, force magnitude accuracy
around 0.03 N, and force direction accuracy around 5 degrees over a range of
0.03--2 N for numerous distinct contacts with varying contact area. The
presented hardware and software design concepts can be transferred to a wide
variety of robot parts.
- Abstract(参考訳): 視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチに有望なアプローチとして登場した。
しかし、それらの物理設計とそれらが提供する情報は、実際のアプリケーションの要件をまだ満たしていない。
我々は、堅牢で、ソフトで、低コストで、視覚ベースで、親指サイズの3D触覚センサーInsightを紹介した。
内部のモノクラーカメラの周りに構築されたセンサーは、感度、堅牢性、ソフトな接触を保証するために、堅いフレームに重畳されたエラストマーの1層のみをオーバーモールドする。
さらに、インサイトはコリメータを用いて測光ステレオと構造化光を組み合わせた最初のシステムであり、容易に交換できるフレキシブル外殻の3d変形を検出する。
力情報は、イメージを3次元接触力(通常およびせん断)の空間分布にマッピングするディープニューラルネットワークによって推測される。
insight の空間分解能は 0.4 mm で、力の大きさは 0.03 n 前後で、接触面積の異なる多数の接触に対して 0.03--2 n の範囲で5度前後の力方向精度を持つ。
提示されたハードウェアとソフトウェアの設計概念は、さまざまなロボット部品に移すことができる。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors [18.88211706267447]
視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
論文 参考訳(メタデータ) (2024-10-02T21:28:19Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Learning to Synthesize Volumetric Meshes from Vision-based Tactile
Imprints [26.118805500471066]
視覚ベースの触覚センサーは、通常、変形可能なエラストマーと上に取り付けられたカメラを使用して、コンタクトの高解像度な画像観察を行う。
本稿では,視覚に基づく触覚センサから得られた画像インプリントに基づいてエラストマーのメッシュを合成する学習に焦点を当てた。
グラフニューラルネットワーク(GNN)を導入し、教師付き学習で画像とメシュのマッピングを学習する。
論文 参考訳(メタデータ) (2022-03-29T00:24:10Z) - DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction [0.0]
視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関しているため、広く利用されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデルを用いた,安価でスケーラブルでコンパクトな触覚センサを提案する。
論文 参考訳(メタデータ) (2022-01-04T22:26:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - GelSight Wedge: Measuring High-Resolution 3D Contact Geometry with a
Compact Robot Finger [8.047951969722794]
GelSight Wedgeセンサーは、高解像度の3D再構成を実現しつつ、ロボットの指のコンパクトな形状に最適化されている。
3次元空間におけるポーズ追跡のための再構成3次元幾何の有効性と可能性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:15:29Z) - Monocular Depth Estimation for Soft Visuotactile Sensors [24.319343057803973]
高密度内部(触覚)深度マップを内部小型赤外線イメージングセンサから直接推定するための最先端の単眼深度推定法の適用について検討した。
深層ネットワークは, ほとんどがテクスチャのない変形可能な流体充填センサ内において, より短い範囲(1~100mm)で精度の高い予測を行うために効果的に訓練できることを示す。
多種多様物体に対して10秒未満のランダムポーズを10秒未満で要求するオブジェクト非依存ネットワークを訓練する,単純な教師付き学習プロセスを提案する。
論文 参考訳(メタデータ) (2021-01-05T17:51:11Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。