論文の概要: Sensor-Invariant Tactile Representation
- arxiv url: http://arxiv.org/abs/2502.19638v1
- Date: Thu, 27 Feb 2025 00:12:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:54:13.125078
- Title: Sensor-Invariant Tactile Representation
- Title(参考訳): センサ不変触覚表現
- Authors: Harsh Gupta, Yuchen Mo, Shengmiao Jin, Wenzhen Yuan,
- Abstract要約: 高解像度触覚センサーは、知覚の具体化やロボット操作に欠かせないものとなっている。
この分野における重要な課題は、設計と製造のバリエーションによるセンサー間の伝達性の欠如である。
本稿では,光触覚センサ間のゼロショット転送を可能にする,SITR(Sensor-Invariant Tactile Representations)の抽出手法を提案する。
- 参考スコア(独自算出の注目度): 11.153753622913843
- License:
- Abstract: High-resolution tactile sensors have become critical for embodied perception and robotic manipulation. However, a key challenge in the field is the lack of transferability between sensors due to design and manufacturing variations, which result in significant differences in tactile signals. This limitation hinders the ability to transfer models or knowledge learned from one sensor to another. To address this, we introduce a novel method for extracting Sensor-Invariant Tactile Representations (SITR), enabling zero-shot transfer across optical tactile sensors. Our approach utilizes a transformer-based architecture trained on a diverse dataset of simulated sensor designs, allowing it to generalize to new sensors in the real world with minimal calibration. Experimental results demonstrate the method's effectiveness across various tactile sensing applications, facilitating data and model transferability for future advancements in the field.
- Abstract(参考訳): 高解像度の触覚センサーは、知覚の具体化やロボット操作に欠かせないものとなっている。
しかし、この分野における重要な課題は、設計と製造のバリエーションによるセンサー間の伝達性の欠如であり、触覚信号に大きな違いをもたらす。
この制限は、あるセンサーから学んだモデルや知識を別のセンサーに転送する能力を妨げている。
そこで本研究では,光触覚センサ間のゼロショット転送を可能にする,センサ不変触覚表現(SITR)の抽出手法を提案する。
提案手法では,シミュレーションセンサ設計の多様なデータセットに基づいてトレーニングされたトランスフォーマーベースのアーキテクチャを用いて,最小限のキャリブレーションで,現実世界の新しいセンサを一般化する。
実験により,様々な触覚センシングアプリケーションにまたがる手法の有効性が実証された。
関連論文リスト
- AnyTouch: Learning Unified Static-Dynamic Representation across Multiple Visuo-tactile Sensors [11.506370451126378]
Visuo-Tactileセンサーは、人間の触覚をエミュレートし、ロボットが物体を理解して操作できるようにする。
そこで本研究では,4種類のビジュオ触覚センサを用いたマルチモーダル触覚マルチセンサデータセットであるTacQuadを紹介する。
マルチレベル構造を持つ静的動的マルチセンサ表現学習フレームワークであるAnyTouchを提案する。
論文 参考訳(メタデータ) (2025-02-15T08:33:25Z) - MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - ACROSS: A Deformation-Based Cross-Modal Representation for Robotic Tactile Perception [1.5566524830295307]
ACROSSは、センサーの変形情報を利用して触覚センサ間でデータを翻訳するフレームワークである。
我々はバイオタックセンサの触覚信号をDIGIT触覚画像に転送する。
論文 参考訳(メタデータ) (2024-11-13T11:29:14Z) - Transferring Tactile Data Across Sensors [1.5566524830295307]
本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
論文 参考訳(メタデータ) (2024-10-18T09:15:47Z) - Data-Based Design of Multi-Model Inferential Sensors [0.0]
産業プロセスの非線形特性は、通常、単純な線形推論センサーを設計する主な制限である。
本稿では,マルチモデル推論センサの設計のための2つの新しいアプローチを提案する。
その結果、単モデル/複数モデル推論センサの最先端設計技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2023-08-05T12:55:15Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。