論文の概要: ACROSS: A Deformation-Based Cross-Modal Representation for Robotic Tactile Perception
- arxiv url: http://arxiv.org/abs/2411.08533v1
- Date: Wed, 13 Nov 2024 11:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:10:38.852092
- Title: ACROSS: A Deformation-Based Cross-Modal Representation for Robotic Tactile Perception
- Title(参考訳): ACROSS:ロボット触覚知覚のための変形に基づくクロスモーダル表現
- Authors: Wadhah Zai El Amri, Malte Kuhlmann, Nicolás Navarro-Guerrero,
- Abstract要約: ACROSSは、センサーの変形情報を利用して触覚センサ間でデータを翻訳するフレームワークである。
我々は、低次元の触覚表現から高次元の触覚表現への移行という最も難しい問題へのアプローチを実証する。
- 参考スコア(独自算出の注目度): 1.5566524830295307
- License:
- Abstract: Tactile perception is essential for human interaction with the environment and is becoming increasingly crucial in robotics. Tactile sensors like the BioTac mimic human fingertips and provide detailed interaction data. Despite its utility in applications like slip detection and object identification, this sensor is now deprecated, making many existing valuable datasets obsolete. However, recreating similar datasets with newer sensor technologies is both tedious and time-consuming. Therefore, it is crucial to adapt these existing datasets for use with new setups and modalities. In response, we introduce ACROSS, a novel framework for translating data between tactile sensors by exploiting sensor deformation information. We demonstrate the approach by translating BioTac signals into the DIGIT sensor. Our framework consists of first converting the input signals into 3D deformation meshes. We then transition from the 3D deformation mesh of one sensor to the mesh of another, and finally convert the generated 3D deformation mesh into the corresponding output space. We demonstrate our approach to the most challenging problem of going from a low-dimensional tactile representation to a high-dimensional one. In particular, we transfer the tactile signals of a BioTac sensor to DIGIT tactile images. Our approach enables the continued use of valuable datasets and the exchange of data between groups with different setups.
- Abstract(参考訳): 触覚は人間と環境との相互作用に不可欠であり、ロボット工学においてますます重要になっている。
BioTacのような触覚センサーは人間の指先を模倣し、詳細なインタラクションデータを提供する。
スリップ検出やオブジェクト識別などのアプリケーションでは有効だが、このセンサーは非推奨となり、既存の貴重なデータセットの多くが廃止されている。
しかし、新しいセンサー技術で類似したデータセットを再現するのは面倒で時間がかかる。
したがって、これらの既存のデータセットを新しいセットアップとモダリティで使用するために適応することが不可欠である。
そこで本研究では,触覚センサ間のデータ変換のための新しいフレームワークであるACROSSについて紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
本フレームワークは,入力信号を3次元変形メッシュに変換することで構成する。
次に、あるセンサの3次元変形メッシュから別のメッシュへ遷移し、生成した3次元変形メッシュを対応する出力空間に変換する。
我々は、低次元の触覚表現から高次元の触覚表現への移行という最も難しい問題へのアプローチを実証する。
特に,BioTacセンサの触覚信号をDIGIT触覚画像に転送する。
我々のアプローチは、価値あるデータセットの継続的な使用と、異なるセットアップを持つグループ間でのデータ交換を可能にします。
関連論文リスト
- Transferring Tactile Data Across Sensors [1.5566524830295307]
本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
論文 参考訳(メタデータ) (2024-10-18T09:15:47Z) - Transferable Tactile Transformers for Representation Learning Across Diverse Sensors and Tasks [6.742250322226066]
T3は、マルチセンサーとマルチタスクにまたがる触覚表現学習のためのフレームワークである。
FoTaで事前訓練したT3は、特定のセンサとタスクのペアリングにおいてゼロショット転送性を達成した。
また、T3は長距離接点リッチな操作のための触覚エンコーダとしても有効である。
論文 参考訳(メタデータ) (2024-06-19T15:39:27Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Transformer-Based Sensor Fusion for Autonomous Driving: A Survey [0.0]
トランスフォーマーベースの検出ヘッドとCNNベースの特徴エンコーダは、センサデータから特徴を抽出する。
Vision Transformer (ViT) の基本を手短に見て、読者が簡単に論文をフォローできるようにします。
結論として,センサフュージョンの傾向を概説し,今後の研究を推し進める。
論文 参考訳(メタデータ) (2023-02-22T16:28:20Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - WaveGlove: Transformer-based hand gesture recognition using multiple
inertial sensors [0.0]
近年、慣性データに基づく手のジェスチャー認識(HGR)が大幅に増加しています。
本研究では,複数の慣性センサを利用するメリットを検討する。
論文 参考訳(メタデータ) (2021-05-04T20:50:53Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Proximity Sensing: Modeling and Understanding Noisy RSSI-BLE Signals and
Other Mobile Sensor Data for Digital Contact Tracing [12.070047847431884]
新型コロナウイルスの感染拡大を抑える主要な健康戦略として、効果的な接触追跡によるソーシャルディスタンシングが浮上している。
本稿では、Bluetooth Low Energy(BLE)信号と他のデバイス上のセンサとの結合モデルを用いて、ペアワイズ個人近接を推定する新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-09-04T03:01:52Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。