論文の概要: A Modularized Design Approach for GelSight Family of Vision-based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2504.14739v1
- Date: Sun, 20 Apr 2025 21:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 20:23:04.459813
- Title: A Modularized Design Approach for GelSight Family of Vision-based Tactile Sensors
- Title(参考訳): 視覚に基づく触覚センサのGelSightファミリーに対するモジュール化設計手法
- Authors: Arpit Agarwal, Mohammad Amin Mirzaee, Xiping Sun, Wenzhen Yuan,
- Abstract要約: GelSightファミリーの視覚ベースの触覚センサーは、複数のロボットの知覚と操作作業に有効であることが証明されている。
本稿では,GelSightセンサの設計プロセスを体系的かつ客観的な設計問題として定式化する。
本手法はOptiSense Studioと呼ばれるインタラクティブで使いやすいツールボックスを用いて実装する。
- 参考スコア(独自算出の注目度): 16.018573469799986
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: GelSight family of vision-based tactile sensors has proven to be effective for multiple robot perception and manipulation tasks. These sensors are based on an internal optical system and an embedded camera to capture the deformation of the soft sensor surface, inferring the high-resolution geometry of the objects in contact. However, customizing the sensors for different robot hands requires a tedious trial-and-error process to re-design the optical system. In this paper, we formulate the GelSight sensor design process as a systematic and objective-driven design problem and perform the design optimization with a physically accurate optical simulation. The method is based on modularizing and parameterizing the sensor's optical components and designing four generalizable objective functions to evaluate the sensor. We implement the method with an interactive and easy-to-use toolbox called OptiSense Studio. With the toolbox, non-sensor experts can quickly optimize their sensor design in both forward and inverse ways following our predefined modules and steps. We demonstrate our system with four different GelSight sensors by quickly optimizing their initial design in simulation and transferring it to the real sensors.
- Abstract(参考訳): GelSightファミリーの視覚ベースの触覚センサーは、複数のロボットの知覚と操作作業に有効であることが証明されている。
これらのセンサーは、内部光学系と内蔵カメラに基づいて、ソフトセンサー表面の変形を捉え、接触している物体の高分解能な形状を推定する。
しかし、異なるロボットハンドにセンサーをカスタマイズするには、光学系を再設計するには面倒な試行錯誤が必要になる。
本稿では,GelSightセンサの設計プロセスを体系的かつ客観的な設計問題として定式化し,物理的に正確な光学シミュレーションによる設計最適化を行う。
センサの光学部品をモジュール化・パラメータ化し、センサを評価するために4つの汎用目的関数を設計する。
本手法はOptiSense Studioと呼ばれるインタラクティブで使いやすいツールボックスを用いて実装する。
ツールボックスを使えば、センサーの専門家でない人は、事前に定義されたモジュールやステップに従って、前方と逆の両方の方法でセンサー設計を迅速に最適化できる。
我々は,シミュレーションにおいて初期設計を迅速に最適化し,実際のセンサに転送することで,4種類のGelSightセンサーを実証した。
関連論文リスト
- Enhance Vision-based Tactile Sensors via Dynamic Illumination and Image Fusion [4.1392041344598045]
視覚ベースの触覚センサーは、構造光を使ってエラストマー界面の変形を測定する。
これまで、視覚ベースの触覚センサーは、センサーの特定のフォームファクタに合わせて調整された、構造化された光の1つの静的パターンを使用してきた。
我々は、異なる照明パターンで複数の測定値を取り込んで、それらを融合して、1つの高品質な測定値を得る方法を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:19:57Z) - Sensor-Invariant Tactile Representation [11.153753622913843]
高解像度触覚センサーは、知覚の具体化やロボット操作に欠かせないものとなっている。
この分野における重要な課題は、設計と製造のバリエーションによるセンサー間の伝達性の欠如である。
本稿では,光触覚センサ間のゼロショット転送を可能にする,SITR(Sensor-Invariant Tactile Representations)の抽出手法を提案する。
論文 参考訳(メタデータ) (2025-02-27T00:12:50Z) - MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Angle Sensitive Pixels for Lensless Imaging on Spherical Sensors [22.329417756084094]
OrbCamは球面センサーで撮影するためのレンズレスアーキテクチャである。
曲面上の画素配向の多様性はシーンとセンサ間のマッピングの条件付けを改善するのに十分であることを示す。
論文 参考訳(メタデータ) (2023-06-28T06:28:53Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction [0.0]
視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関しているため、広く利用されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデルを用いた,安価でスケーラブルでコンパクトな触覚センサを提案する。
論文 参考訳(メタデータ) (2022-01-04T22:26:14Z) - Perception Entropy: A Metric for Multiple Sensors Configuration
Evaluation and Design [17.979248163548288]
良く設計されたセンサ構成は、知覚システムの性能上界を大幅に改善する。
ベイズ理論における条件エントロピーに基づく新しい手法を提案し,カメラとLiDARの両方を含むセンサ構成を評価する。
我々の知る限りでは、これは自動運転車のマルチセンサー構成問題に対処する最初の方法である。
論文 参考訳(メタデータ) (2021-04-14T03:52:57Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z) - Redesigning SLAM for Arbitrary Multi-Camera Systems [51.81798192085111]
SLAMシステムにより多くのカメラを追加することで、堅牢性と精度が向上するが、視覚的なフロントエンドの設計は大幅に複雑になる。
本研究では,任意のマルチカメラ装置で動作する適応SLAMシステムを提案する。
これらの修正を応用した最先端の視覚慣性計測装置を試作し, 改良したパイプラインが広い範囲のカメラ装置に適応可能であることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-03-04T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。