論文の概要: ArrayTac: A tactile display for simultaneous rendering of shape, stiffness and friction
- arxiv url: http://arxiv.org/abs/2603.13829v1
- Date: Sat, 14 Mar 2026 08:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.430962
- Title: ArrayTac: A tactile display for simultaneous rendering of shape, stiffness and friction
- Title(参考訳): ArrayTac: 形状、剛性、摩擦を同時にレンダリングする触覚ディスプレイ
- Authors: Tianhai Liang, Shiyi Guo, Baiye Cheng, Zhengrong Xue, Han Zhang, Huazhe Xu,
- Abstract要約: ArrayTacは圧電駆動型触覚ディスプレイで、形状、剛性、摩擦を同時にレンダリングしてリアルな触覚信号を再現することができる。
このシステムは、物体の形状、剛性、摩擦を同時にレンダリングする前例のない能力を導入することで、高忠実な触覚フィードバックのための新しい経路を開拓した。
- 参考スコア(独自算出の注目度): 31.381555500488158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-computer interaction in the visual and auditory domains has achieved considerable maturity, yet machine-to-human tactile feedback remains underdeveloped. Existing tactile displays struggle to simultaneously render multiple tactile dimensions, such as shape, stiffness, and friction, which limits the realism of haptic simulation. Here, we present ArrayTac, a piezoelectric-driven tactile display capable of simultaneously rendering shape, stiffness, and friction to reproduce realistic haptic signals. The system comprises a 4x4 array of 16 actuator units, each employing a three-stage micro-lever mechanism to amplify the micrometer-scale displacement of the piezoelectric element, with Hall sensor-based closed-loop control at the end effector to enhance response speed and precision. We further implement two end-to-end pipelines: 1) a vision-to-touch framework that converts visual inputs into tactile signals using multimodal foundation models, and 2) a real-time tele-palpation system operating over distances of several thousand kilometers. In user studies, first-time participants accurately identify object shapes and physical properties with high success rates. In a tele-palpation experiment over 1,000km, untrained volunteers correctly identified both the number and type of tumors in a breast phantom with 100% accuracy and precisely localized their positions. The system pioneers a new pathway for high-fidelity haptic feedback by introducing the unprecedented capability to simultaneously render an object's shape, stiffness, and friction, delivering a holistic tactile experience that was previously unattainable.
- Abstract(参考訳): 視覚領域と聴覚領域における人間とコンピュータの相互作用はかなり成熟しているが、機械と人間の触覚フィードバックはまだ未発達である。
既存の触覚ディスプレイは、形状、剛性、摩擦などの複数の触覚次元を同時にレンダリングするのに苦労し、触覚シミュレーションの現実性を制限する。
本稿では、圧電駆動型触覚ディスプレイであるArrayTacについて、形状、剛性、摩擦を同時にレンダリングし、現実的な触覚信号を再現する。
このシステムは、16のアクチュエータユニットからなる4x4アレイで構成され、それぞれ3段のマイクロレバー機構を用いて圧電素子のマイクロスケール変位を増幅し、ホールセンサをベースとした閉ループ制御をエンドエフェクタに配置し、応答速度と精度を向上させる。
さらに2つのエンドツーエンドパイプラインを実装します。
1)マルチモーダル基礎モデルを用いた視覚入力を触覚信号に変換する視覚タッチフレームワーク
2) 距離数千kmのリアルタイム遠隔操作システム。
ユーザスタディにおいて、初回参加者は、高い成功率でオブジェクトの形状と物理的特性を正確に識別する。
1000kmを超える触診実験で、訓練を受けていないボランティアは、乳房ファントム内の腫瘍の数と種類を100%正確に識別し、位置を正確に特定した。
このシステムは、物体の形状、硬さ、摩擦を同時にレンダリングする前例のない能力を導入し、以前は達成不可能だった総合的な触覚体験を提供することによって、高忠実な触覚フィードバックのための新しい経路を開拓した。
関連論文リスト
- Physics Informed Neural Networks for design optimisation of diamond particle detectors for charged particle fast-tracking at high luminosity hadron colliders [70.66815108184498]
将来の高輝度ハドロン衝突装置は、極端放射線耐性、空間精度、ナノ秒以下のタイミングで追跡検出器を必要とする。
3Dダイヤモンドのピクセルセンサーは、ダイヤモンドの放射硬度とキャリアの移動性のために、これらの機能を提供する。
我々は、マクスウェル方程式の準定常近似として導かれた3次、3+1D PDEを用いて、この現象をモデル化する。
論文 参考訳(メタデータ) (2025-09-25T13:09:28Z) - ControlTac: Force- and Position-Controlled Tactile Data Augmentation with a Single Reference Image [24.223013595239916]
ControlTacは、単一の参照触覚画像、接触力、接触位置に条件付けされたリアルな触覚画像を生成する、制御可能なフレームワークである。
ControlTacは、触覚データセットを効果的に拡張し、一貫したゲインにつながることを実証します。
論文 参考訳(メタデータ) (2025-05-26T20:01:17Z) - General In-Hand Object Rotation with Vision and Touch [46.871539289388615]
複数の軸に沿って指先で物体を回転させるシステムであるRotateItを紹介した。
実感的かつノイズの多いビゾタクタクタブルとプロピロセプティヴな感覚入力で操作するために蒸留する。
論文 参考訳(メタデータ) (2023-09-18T17:59:25Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。