論文の概要: MagicSkin: Balancing Marker and Markerless Modes in Vision-Based Tactile Sensors with a Translucent Skin
- arxiv url: http://arxiv.org/abs/2512.06829v1
- Date: Sun, 07 Dec 2025 12:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.184108
- Title: MagicSkin: Balancing Marker and Markerless Modes in Vision-Based Tactile Sensors with a Translucent Skin
- Title(参考訳): MagicSkin:透明な皮膚を持つ視覚ベースの触覚センサーにおけるマーカとマーカレスモードのバランス
- Authors: Oluwatimilehin Tijani, Zhuo Chen, Jiankang Deng, Shan Luo,
- Abstract要約: MagicSkinは、視覚ベースの触覚センサーのためのマーカーとマーカーのモードのバランスをとる、透明で色のついたマーカーを備えた、新しい触覚皮膚である。
同時に接尾辞の変位追跡、力予測、表面保存の細部が可能である。
透光性マーカーは、従来のマーカーレスマーカーやインケインマーカーの設計と比較して、感度を劣化させるよりも著しく向上する。
- 参考スコア(独自算出の注目度): 52.946698368609844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based tactile sensors (VBTS) face a fundamental trade-off in marker and markerless design on the tactile skin: opaque ink markers enable measurement of force and tangential displacement but completely occlude geometric features necessary for object and texture classification, while markerless skin preserves surface details but struggles in measuring tangential displacements effectively. Current practice to solve the above problem via UV lighting or virtual transfer using learning-based models introduces hardware complexity or computing burdens. This paper introduces MagicSkin, a novel tactile skin with translucent, tinted markers balancing the modes of marker and markerless for VBTS. It enables simultaneous tangential displacement tracking, force prediction, and surface detail preservation. This skin is easy to plug into GelSight-family sensors without requiring additional hardware or software tools. We comprehensively evaluate MagicSkin in downstream tasks. The translucent markers impressively enhance rather than degrade sensing performance compared with traditional markerless and inked marker design: it achieves best performance in object classification (99.17\%), texture classification (93.51\%), tangential displacement tracking (97\% point retention) and force prediction (66\% improvement in total force error). These experimental results demonstrate that translucent skin eliminates the traditional performance trade-off in marker or markerless modes, paving the way for multimodal tactile sensing essential in tactile robotics. See videos at this \href{https://zhuochenn.github.io/MagicSkin_project/}{link}.
- Abstract(参考訳): 視覚ベースの触覚センサ(VBTS)は、触覚皮膚のマーカーとマーカーレス設計の基本的なトレードオフに直面している。不透明なインクマーカーは、力と接形変位の測定を可能にするが、物体やテクスチャの分類に必要な幾何学的特徴を完全に排除する一方、マーカーレス皮膚は表面の詳細を保存しているが、接形変位を効果的に測定するのに苦労する。
学習ベースモデルを用いたUV照明や仮想転送により、上記の問題を解決するための現在の実践は、ハードウェアの複雑さや計算負荷をもたらす。
本稿では,VBTSのマーカーモードとマーカーレスのバランスをとる,透明で彩色されたマーカーを持つ新しい触覚皮膚であるMagicSkinを紹介する。
同時に接尾辞の変位追跡、力予測、表面の詳細な保存を可能にする。
このスキンは、ハードウェアやソフトウェアツールを必要とせずに、GelSightセンサーのセンサーに簡単に接続できる。
下流タスクにおいてMagicSkinを総合的に評価する。
透光性マーカーは、従来のマーカーレスおよびインケインマーカーの設計と比較して、感度を低下させるよりも著しく向上し、オブジェクト分類(99.17 %)、テクスチャ分類(93.51 %)、接点変位追跡(97 %ポイント保持)、力予測(66 %トータル力誤差の改善)において最高の性能を達成する。
これらの実験結果から,透光性皮膚はマーカーやマーカーレスモードの伝統的な性能トレードオフを排除し,触覚ロボティクスに不可欠なマルチモーダル触覚感覚の道を開いた。
このビデオは、この‘href{https://zhuochenn.github.io/MagicSkin_project/}{link}’にある。
関連論文リスト
- MAMMA: Markerless & Automatic Multi-Person Motion Action Capture [37.06717786024836]
MAMMAはマーカーレスモーションキャプチャパイプラインで、2人のインタラクションシーケンスのマルチビュービデオからSMPL-Xパラメータを復元する。
セグメンテーションマスクに条件付された高密度2次元表面のランドマークを予測する手法を提案する。
提案手法は複雑な対人インタラクションを処理でき,既存の手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-16T02:04:51Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - A Locality-based Neural Solver for Optical Motion Capture [37.28597049192196]
ノイズの多いマーカーデータから、マーカーと関節を異なるタイプのノードとして扱う異種グラフニューラルネットワークを提案する。
本手法は,隠蔽マーカー位置誤差の予測精度の観点から,最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-01T12:40:17Z) - Object Discovery from Motion-Guided Tokens [50.988525184497334]
自動エンコーダ表現学習フレームワークを、モーションガイダンスと中間レベルの特徴トークン化により強化する。
我々のアプローチは、解釈可能なオブジェクト固有の中間レベルの特徴の出現を可能にする。
論文 参考訳(メタデータ) (2023-03-27T19:14:00Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - DeepFormableTag: End-to-end Generation and Recognition of Deformable
Fiducial Markers [27.135078472097895]
既存の検出方法は、マーカーが理想的に平面面に印刷されていると仮定する。
フィデューシャルマーカー生成器は、大規模な情報を符号化する自由形式のカラーパターンのセットを作成する。
微分可能画像シミュレータは、変形マーカーを用いたフォトリアリスティックシーン画像のトレーニングデータセットを作成する。
訓練されたマーカー検出器は興味のある領域を探し、同時に複数のマーカーパターンを認識する。
論文 参考訳(メタデータ) (2022-06-16T09:29:26Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。