論文の概要: GelSphere: An Omnidirectional Rolling Vision-Based Tactile Sensor for Online 3D Reconstruction and Normal Force Estimation
- arxiv url: http://arxiv.org/abs/2603.14104v1
- Date: Sat, 14 Mar 2026 20:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.811899
- Title: GelSphere: An Omnidirectional Rolling Vision-Based Tactile Sensor for Online 3D Reconstruction and Normal Force Estimation
- Title(参考訳): GelSphere:オンライン3D再構成と正規力推定のための全方向回転型触覚センサ
- Authors: Seoyeon Lee, Mohammad Amin Mirzaee, Wenzhen Yuan,
- Abstract要約: 本稿では,球面型触覚センサであるGelSphereについて紹介する。
従来の視覚ベースの触覚センサーは、局所的にしか感知できず、表面を横切ると損傷を受けます。
センサーはWi-Fi経由で触覚画像をストリームする。
- 参考スコア(独自算出の注目度): 2.803505954180182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present GelSphere, a spherical vision-based tactile sensor designed for real-time continuous surface scanning. Unlike traditional vision-based tactile sensors that can only sense locally and are damaged when slid across surfaces, and cylindrical tactile sensors that can only roll along a fixed direction, our design enables omnidirectional rolling on surfaces. We accomplish this through our novel sensing system design, which has steel balls inside the sensor, forming a bearing layer between the gel and the rigid housing that allows rolling motion in all axes. The sensor streams tactile images through Wi-Fi, with online large-surface reconstruction capabilities. We present quantitative results for both reconstruction accuracy and image fusion performance. The results show that our sensor maintains geometric fidelity and high reconstruction accuracy even under multi-directional rolling, enabling uninterrupted surface scanning.
- Abstract(参考訳): 本稿では,球面型触覚センサであるGelSphereについて紹介する。
従来の視覚ベースの触覚センサは、局所的にしか感知できず、表面を横切ると損傷を受けます。
センサの内部にスチールボールがあり、ゲルと剛体ハウジングの間に軸受層を形成し、すべての軸を転動させることができる。
センサーはWi-Fi経由で触覚画像をストリームする。
再現精度と画像融合性能の両方について定量的な結果を示す。
その結果,多方向転がりにおいても形状の忠実度と高い復元精度を保ち,不断面走査が可能であった。
関連論文リスト
- PolGS++: Physically-Guided Polarimetric Gaussian Splatting for Fast Reflective Surface Reconstruction [76.9760302941819]
PolGS++は高速反射面再構成のための偏光ガウス散乱フレームワークである。
本稿では,アングル・オブ・ポラライゼーション(AoP)に基づくタンジェント空間の整合性制約を実現するための,奥行き誘導型可視マスク取得機構を提案する。
論文 参考訳(メタデータ) (2026-03-11T14:11:42Z) - NLiPsCalib: An Efficient Calibration Framework for High-Fidelity 3D Reconstruction of Curved Visuotactile Sensors [6.94308778422421]
NLiPsCalibは,曲線型ビゾタクタクタブルセンサの物理一貫性と効率的な校正フレームワークである。
さらに,NLiPsTacは,我々のフレームワークを検証するために開発された,制御可能な光源触覚センサである。
論文 参考訳(メタデータ) (2026-03-10T07:50:49Z) - Fluidically Innervated Lattices Make Versatile and Durable Tactile Sensors [43.33741954317892]
組込み空気流路を有する3Dプリントエラストマー格子を用いて製造した触覚センサを内蔵した受動型ソフトロボット指先について述べる。
このセンサ化アプローチは、流体神経支配と呼ばれ、密閉された空気チャネル内の圧力変化を検出して格子を触覚センサーに変換する。
論文 参考訳(メタデータ) (2025-07-28T18:00:04Z) - PhySense: Sensor Placement Optimization for Accurate Physics Sensing [53.58729034895666]
PhySenseは、物理的なフィールドを共同で再構築し、センサー配置を最適化するフレームワークである。
最先端の物理センサーの精度を達成し、以前は考えられていなかった情報的なセンサー配置を発見する。
論文 参考訳(メタデータ) (2025-05-19T14:59:11Z) - GelBelt: A Vision-based Tactile Sensor for Continuous Sensing of Large Surfaces [7.84516438523304]
本研究では,連続表面センサのための視覚ベースの触覚センサを提案する。
私たちの設計では、エラストマーベルトと2つの車輪を使って目標面を連続的にスキャンしています。
その結果,提案センサは高速で45mm/sの精度で大規模表面を走査できることがわかった。
論文 参考訳(メタデータ) (2025-01-09T15:00:03Z) - DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction [0.0]
視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関しているため、広く利用されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデルを用いた,安価でスケーラブルでコンパクトな触覚センサを提案する。
論文 参考訳(メタデータ) (2022-01-04T22:26:14Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。