論文の概要: LightTact: A Visual-Tactile Fingertip Sensor for Deformation-Independent Contact Sensing
- arxiv url: http://arxiv.org/abs/2512.20591v2
- Date: Wed, 11 Feb 2026 19:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.486171
- Title: LightTact: A Visual-Tactile Fingertip Sensor for Deformation-Independent Contact Sensing
- Title(参考訳): LightTact:変形非依存接触センシングのための視覚触覚フィンガープセンサ
- Authors: Changyi Lin, Boda Huo, Mingyang Yu, Emily Ruppel, Bingqing Chen, Jonathan Francis, Ding Zhao,
- Abstract要約: LightTactは視覚触覚の指先センサーで、接触を変形に依存しない原理で直接見えるようにする。
LightTactは、非接触画素が近黒のままである高コントラストの生画像を生成する。
我々は,LightTactの空間的に整列した視覚触覚画像を直接視覚言語モデルで解釈可能であることを示す。
- 参考スコア(独自算出の注目度): 30.16501168927954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contact often occurs without macroscopic surface deformation, such as during interaction with liquids, semi-liquids, or ultra-soft materials. However, most existing tactile sensors rely on deformation to infer contact, making such light-contact interactions difficult to perceive robustly. To address this, we present LightTact, a visual-tactile fingertip sensor that makes contact directly visible via a deformation-independent principle. LightTact features an ambient-blocking optical configuration that suppresses both external light and internal illumination at non-contact regions, while transmitting only the scattered light generated at true contacts. As a result, LightTact produces high-contrast raw images in which non-contact pixels remain near-black (mean gray value < 3) and contact pixels preserve the natural appearance of the contacting surface. Built on this, LightTact achieves accurate pixel-level contact segmentation that is robust to material properties, contact force, surface appearance, and environmental lighting. We further demonstrate that LightTact unlocks new robotic manipulation behaviors that require detection of extremely light contact, including water spreading, facial-cream dipping, and soft thin-film interaction. In addition, we show that LightTact's spatially aligned visual-tactile images can be directly interpreted by vision-language models.
- Abstract(参考訳): 接触はしばしば、液体、半液体、超軟質材料との相互作用など、マクロな表面の変形なしに起こる。
しかし、既存の触覚センサの多くは接触を推測するために変形に依存しており、このような光接触相互作用を強く知覚することは困難である。
これを解決するために、変形非依存の原理で接触を直接見えるようにする視覚触覚指先センサLightTactを提案する。
LightTactは、非接触領域における外部光と内部光の両方を抑制し、真の接触で発生する散乱光のみを伝達する環境遮断光学構成を備えている。
その結果、LightTactは非接触画素が近黒(平均グレイ値<3)に留まり、接触画素が接触面の自然な外観を保っている高コントラスト原像を生成する。
この上に構築されたLightTactは、材料特性、接触力、表面の外観、環境照明に頑丈な正確なピクセルレベルの接触セグメンテーションを実現する。
さらに、LightTactは、水拡散、顔とクリームのディッピング、ソフトな薄膜の相互作用など、非常に軽い接触の検出を必要とする、新しいロボット操作の動作をアンロックする。
さらに,LightTactの空間的に整列した視覚触覚画像は,視覚言語モデルで直接解釈可能であることを示す。
関連論文リスト
- Semantic-Contact Fields for Category-Level Generalizable Tactile Tool Manipulation [82.63833405368159]
ツール操作の一般化には、セマンティックプランニングと正確な物理的制御の両方が必要である。
本研究では,密接な接触推定を伴う視覚的意味論を融合した3次元表現であるセマンティック・コンタクト・フィールド(SCFields)を提案する。
スクレイピング、クレヨン描画、剥離の実験は、堅牢なカテゴリレベルの一般化を示している。
論文 参考訳(メタデータ) (2026-02-14T16:05:08Z) - A thin and soft optical tactile sensor for highly sensitive object perception [0.28528456544424774]
我々は、アライメントのない配置を特徴とする、薄く、コンパクトで、ソフトな光触覚センサを提案する。
このセンサは、軟質シリコン材料内で発生するスペックルパターンの変形誘起変化をキャプチャして動作させる。
実験の結果,9種類のテクスチャ面に対して40mNの根平均二乗誤差と93.33%の分類精度を示した。
論文 参考訳(メタデータ) (2026-02-03T08:28:14Z) - OPENTOUCH: Bringing Full-Hand Touch to Real-World Interaction [93.88239833545623]
OpenTouchは、最初のインザワイルドなエゴセントリックなフルハンド触覚データセットです。
触覚信号は,理解のためのコンパクトで強力なキューを提供する。
我々は,マルチモーダルな自我中心の知覚,具体的学習,接触に富むロボット操作の促進を目指す。
論文 参考訳(メタデータ) (2025-12-18T18:18:17Z) - Controllable Visual-Tactile Synthesis [28.03469909285511]
一つのスケッチから視覚と触覚の両方の出力を合成する条件生成モデルを開発した。
次に,電気接着型触覚デバイスに高品質な視覚・触覚出力を描画するパイプラインを導入する。
論文 参考訳(メタデータ) (2023-05-04T17:59:51Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Sim-to-real for high-resolution optical tactile sensing: From images to
3D contact force distributions [5.939410304994348]
本稿では、内部カメラに基づく視覚ベースの触覚センサのシミュレーションにおいて触覚画像を生成する戦略を提案する。
材料の変形は、様々な接触条件の下で有限要素環境下でシミュレートされ、シミュレートされた画像に球状粒子が投影される。
画像から抽出した特徴は、3次元接触力分布にマップされ、有限要素シミュレーションによっても得られる。
論文 参考訳(メタデータ) (2020-12-21T12:43:33Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。