論文の概要: PyTouch: A Machine Learning Library for Touch Processing
- arxiv url: http://arxiv.org/abs/2105.12791v1
- Date: Wed, 26 May 2021 18:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:01:30.198157
- Title: PyTouch: A Machine Learning Library for Touch Processing
- Title(参考訳): PyTouch: タッチ処理のための機械学習ライブラリ
- Authors: Mike Lambeta, Huazhe Xu, Jingwei Xu, Po-Wei Chou, Shaoxiong Wang,
Trevor Darrell, Roberto Calandra
- Abstract要約: 我々は、タッチセンシング信号の処理に特化した、最初の機械学習ライブラリであるPyTouchを紹介する。
PyTouchはモジュール式で使いやすく、最先端のタッチ処理機能をサービスとして提供するように設計されている。
タッチ検出,スリップ,オブジェクトポーズ推定などのタッチ処理タスクにおいて,触覚センサの実際のデータからPyTouchを評価する。
- 参考スコア(独自算出の注目度): 68.32055581488557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased availability of rich tactile sensors, there is an equally
proportional need for open-source and integrated software capable of
efficiently and effectively processing raw touch measurements into high-level
signals that can be used for control and decision-making. In this paper, we
present PyTouch -- the first machine learning library dedicated to the
processing of touch sensing signals. PyTouch, is designed to be modular,
easy-to-use and provides state-of-the-art touch processing capabilities as a
service with the goal of unifying the tactile sensing community by providing a
library for building scalable, proven, and performance-validated modules over
which applications and research can be built upon. We evaluate PyTouch on
real-world data from several tactile sensors on touch processing tasks such as
touch detection, slip and object pose estimations. PyTouch is open-sourced at
https://github.com/facebookresearch/pytouch .
- Abstract(参考訳): リッチな触覚センサが利用可能になるにつれて、制御や意思決定に使用できる高レベルの信号に生のタッチ計測を効率よく効果的に処理できるオープンソースと統合ソフトウェアが等しく必要となる。
本稿では,タッチセンシング信号の処理に特化した最初の機械学習ライブラリであるpytouchを提案する。
PyTouchはモジュラーで使いやすいように設計されており、アプリケーションや研究が構築可能な、スケーラブルで実証されたパフォーマンス検証済みのモジュールを構築するためのライブラリを提供することで、触覚センサコミュニティを統合することを目的として、最先端のタッチ処理機能をサービスとして提供する。
タッチ検出やスリップ,オブジェクトポーズ推定など,タッチ処理タスクにおける触覚センサによる実世界データに対するpytouchの評価を行う。
pytouchはhttps://github.com/facebookresearch/pytouchでオープンソースである。
関連論文リスト
- Binding Touch to Everything: Learning Unified Multimodal Tactile
Representations [29.76008953177392]
複数モードに接続された視覚ベースのタッチセンサの統一モデルであるUniTouchを紹介する。
我々は、すでに様々なモダリティに関連付けられている事前訓練済みのイメージ埋め込みに、UniTouchの埋め込みを合わせることで、これを実現する。
さらに、学習可能なセンサ固有のトークンを提案し、不均一な触覚センサの集合からモデルを学習できるようにする。
論文 参考訳(メタデータ) (2024-01-31T18:59:57Z) - Controllable Visual-Tactile Synthesis [28.03469909285511]
一つのスケッチから視覚と触覚の両方の出力を合成する条件生成モデルを開発した。
次に,電気接着型触覚デバイスに高品質な視覚・触覚出力を描画するパイプラインを導入する。
論文 参考訳(メタデータ) (2023-05-04T17:59:51Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。