論文の概要: Cross-Sensor Touch Generation
- arxiv url: http://arxiv.org/abs/2510.09817v1
- Date: Fri, 10 Oct 2025 19:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.637068
- Title: Cross-Sensor Touch Generation
- Title(参考訳): クロスセンサ・タッチ・ジェネレーション
- Authors: Samanta Rodriguez, Yiming Dou, Miquel Oller, Andrew Owens, Nima Fazeli,
- Abstract要約: クロスセンサ画像生成のための2つのアプローチを提案する。
1つ目は、ペアデータ(Touch2Touch)を利用するエンドツーエンドメソッドである。
第2の方法は中間深度表現を構築し、ペアデータを必要としない(T2D2: Touch-to-Depth-to-Touch)。
- 参考スコア(独自算出の注目度): 31.58461878495434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today's visuo-tactile sensors come in many shapes and sizes, making it challenging to develop general-purpose tactile representations. This is because most models are tied to a specific sensor design. To address this challenge, we propose two approaches to cross-sensor image generation. The first is an end-to-end method that leverages paired data (Touch2Touch). The second method builds an intermediate depth representation and does not require paired data (T2D2: Touch-to-Depth-to-Touch). Both methods enable the use of sensor-specific models across multiple sensors via the cross-sensor touch generation process. Together, these models offer flexible solutions for sensor translation, depending on data availability and application needs. We demonstrate their effectiveness on downstream tasks such as in-hand pose estimation and behavior cloning, successfully transferring models trained on one sensor to another. Project page: https://samantabelen.github.io/cross_sensor_touch_generation.
- Abstract(参考訳): 今日のビジュオ触覚センサーは様々な形状とサイズがあり、汎用的な触覚表現を開発するのは難しい。
これは、ほとんどのモデルが特定のセンサー設計に結びついているためです。
この課題に対処するために、クロスセンサ画像生成のための2つのアプローチを提案する。
1つは、ペアデータ(Touch2Touch)を利用するエンドツーエンドのメソッドである。
第2の方法は中間深度表現を構築し、ペアデータを必要としない(T2D2: Touch-to-Depth-to-Touch)。
どちらの方法も、クロスセンサータッチ生成プロセスを通じて、複数のセンサーにまたがるセンサー固有のモデルの使用を可能にする。
これらのモデルは、データの可用性とアプリケーションのニーズに応じて、センサ翻訳のための柔軟なソリューションを提供する。
本研究は、手動ポーズ推定や行動クローニング、あるセンサで訓練されたモデルを別のセンサに転送する成功例などの下流タスクにおいて、それらの効果を実証する。
プロジェクトページ: https://samantabelen.github.io/cross_sensor_touch_generation。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - ACROSS: A Deformation-Based Cross-Modal Representation for Robotic Tactile Perception [1.5566524830295307]
ACROSSは、センサーの変形情報を利用して触覚センサ間でデータを翻訳するフレームワークである。
我々はバイオタックセンサの触覚信号をDIGIT触覚画像に転送する。
論文 参考訳(メタデータ) (2024-11-13T11:29:14Z) - Transferring Tactile Data Across Sensors [1.5566524830295307]
本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
論文 参考訳(メタデータ) (2024-10-18T09:15:47Z) - Binding Touch to Everything: Learning Unified Multimodal Tactile
Representations [29.76008953177392]
複数モードに接続された視覚ベースのタッチセンサの統一モデルであるUniTouchを紹介する。
我々は、すでに様々なモダリティに関連付けられている事前訓練済みのイメージ埋め込みに、UniTouchの埋め込みを合わせることで、これを実現する。
さらに、学習可能なセンサ固有のトークンを提案し、不均一な触覚センサの集合からモデルを学習できるようにする。
論文 参考訳(メタデータ) (2024-01-31T18:59:57Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - PyTouch: A Machine Learning Library for Touch Processing [68.32055581488557]
我々は、タッチセンシング信号の処理に特化した、最初の機械学習ライブラリであるPyTouchを紹介する。
PyTouchはモジュール式で使いやすく、最先端のタッチ処理機能をサービスとして提供するように設計されている。
タッチ検出,スリップ,オブジェクトポーズ推定などのタッチ処理タスクにおいて,触覚センサの実際のデータからPyTouchを評価する。
論文 参考訳(メタデータ) (2021-05-26T18:55:18Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。