論文の概要: Transferring Tactile Data Across Sensors
- arxiv url: http://arxiv.org/abs/2410.14310v1
- Date: Fri, 18 Oct 2024 09:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:24:33.796861
- Title: Transferring Tactile Data Across Sensors
- Title(参考訳): センサ間の触覚データ転送
- Authors: Wadhah Zai El Amri, Malte Kuhlmann, Nicolás Navarro-Guerrero,
- Abstract要約: 本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
- 参考スコア(独自算出の注目度): 1.5566524830295307
- License:
- Abstract: Tactile perception is essential for human interaction with the environment and is becoming increasingly crucial in robotics. Tactile sensors like the BioTac mimic human fingertips and provide detailed interaction data. Despite its utility in applications like slip detection and object identification, this sensor is now deprecated, making many existing datasets obsolete. This article introduces a novel method for translating data between tactile sensors by exploiting sensor deformation information rather than output signals. We demonstrate the approach by translating BioTac signals into the DIGIT sensor. Our framework consists of three steps: first, converting signal data into corresponding 3D deformation meshes; second, translating these 3D deformation meshes from one sensor to another; and third, generating output images using the converted meshes. Our approach enables the continued use of valuable datasets.
- Abstract(参考訳): 触覚は人間と環境との相互作用に不可欠であり、ロボット工学においてますます重要になっている。
BioTacのような触覚センサーは人間の指先を模倣し、詳細なインタラクションデータを提供する。
スリップ検出やオブジェクト識別などのアプリケーションでは有効だが、このセンサは廃止され、多くの既存のデータセットが廃止された。
本稿では,センサの変形情報を利用した触覚センサ間のデータ変換手法を提案する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第1のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,変換メッシュを使用して出力画像を生成する第3のステップで構成されている。
私たちのアプローチは、貴重なデータセットの継続的な使用を可能にします。
関連論文リスト
- Transferable Tactile Transformers for Representation Learning Across Diverse Sensors and Tasks [6.742250322226066]
T3は、マルチセンサーとマルチタスクにまたがる触覚表現学習のためのフレームワークである。
FoTaで事前訓練したT3は、特定のセンサとタスクのペアリングにおいてゼロショット転送性を達成した。
また、T3は長距離接点リッチな操作のための触覚エンコーダとしても有効である。
論文 参考訳(メタデータ) (2024-06-19T15:39:27Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Machine Learning Based Compensation for Inconsistencies in Knitted Force
Sensors [1.0742675209112622]
編まれたセンサーは、オフセット、緩和、漂流といった自然現象によってしばしば不整合に悩まされる。
本稿では,最小人工ニューラルネットワーク(ANN)を用いて処理することで,これに対応する方法を示す。
合計8個のニューロンを持つ3層ANNをトレーニングすることにより,センサ読み取りとアクティベーション力のマッピングを大幅に改善する。
論文 参考訳(メタデータ) (2023-06-21T09:19:33Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Transformer-Based Sensor Fusion for Autonomous Driving: A Survey [0.0]
トランスフォーマーベースの検出ヘッドとCNNベースの特徴エンコーダは、センサデータから特徴を抽出する。
Vision Transformer (ViT) の基本を手短に見て、読者が簡単に論文をフォローできるようにします。
結論として,センサフュージョンの傾向を概説し,今後の研究を推し進める。
論文 参考訳(メタデータ) (2023-02-22T16:28:20Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - WaveGlove: Transformer-based hand gesture recognition using multiple
inertial sensors [0.0]
近年、慣性データに基づく手のジェスチャー認識(HGR)が大幅に増加しています。
本研究では,複数の慣性センサを利用するメリットを検討する。
論文 参考訳(メタデータ) (2021-05-04T20:50:53Z) - Proximity Sensing: Modeling and Understanding Noisy RSSI-BLE Signals and
Other Mobile Sensor Data for Digital Contact Tracing [12.070047847431884]
新型コロナウイルスの感染拡大を抑える主要な健康戦略として、効果的な接触追跡によるソーシャルディスタンシングが浮上している。
本稿では、Bluetooth Low Energy(BLE)信号と他のデバイス上のセンサとの結合モデルを用いて、ペアワイズ個人近接を推定する新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-09-04T03:01:52Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。