論文の概要: Tactile Data Recording System for Clothing with Motion-Controlled Robotic Sliding
- arxiv url: http://arxiv.org/abs/2511.11634v1
- Date: Sat, 08 Nov 2025 09:56:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.691858
- Title: Tactile Data Recording System for Clothing with Motion-Controlled Robotic Sliding
- Title(参考訳): 運動制御型ロボットスライディングによる衣服の触覚データ記録システム
- Authors: Michikuni Eguchi, Takekazu Kitagishi, Yuichi Hiroi, Takefumi Hiraki,
- Abstract要約: 本研究では,無傷衣服から触覚データを収集するロボットアームベースシステムを提案する。
このシステムは、速度と方向を正確に制御しながら、シミュレートされた指先でストローキング計測を行う。
- 参考スコア(独自算出の注目度): 7.371393690571227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The tactile sensation of clothing is critical to wearer comfort. To reveal physical properties that make clothing comfortable, systematic collection of tactile data during sliding motion is required. We propose a robotic arm-based system for collecting tactile data from intact garments. The system performs stroking measurements with a simulated fingertip while precisely controlling speed and direction, enabling creation of motion-labeled, multimodal tactile databases. Machine learning evaluation showed that including motion-related parameters improved identification accuracy for audio and acceleration data, demonstrating the efficacy of motion-related labels for characterizing clothing tactile sensation. This system provides a scalable, non-destructive method for capturing tactile data of clothing, contributing to future studies on fabric perception and reproduction.
- Abstract(参考訳): 衣服の触覚は着用者の快適さに不可欠である。
衣服を快適にするための物理的特性を明らかにするためには、滑動時の触覚データの体系的な収集が必要である。
本研究では,無傷衣服から触覚データを収集するロボットアームベースシステムを提案する。
このシステムは、速度と方向を正確に制御しながら、シミュレートされた指先でストローキング計測を行い、モーションラベル付きマルチモーダル触覚データベースの作成を可能にする。
機械学習による評価では、動作関連パラメータを含むことで、音声および加速度データの識別精度が向上し、衣服の触覚を特徴付けるための動作関連ラベルの有効性が示された。
このシステムは、衣類の触覚データを取得するためのスケーラブルで非破壊的な方法を提供し、繊維の知覚と再現に関する将来の研究に寄与する。
関連論文リスト
- A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy [6.739132519488627]
本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。
我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。
その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。