論文の概要: TACTO: A Fast, Flexible and Open-source Simulator for High-Resolution
Vision-based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2012.08456v1
- Date: Tue, 15 Dec 2020 17:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:31:03.564688
- Title: TACTO: A Fast, Flexible and Open-source Simulator for High-Resolution
Vision-based Tactile Sensors
- Title(参考訳): TACTO:高解像度ビジョンベース触覚センサのための高速で柔軟なオープンソースのシミュレータ
- Authors: Shaoxiong Wang, Mike Lambeta, Po-Wei Chou, Roberto Calandra
- Abstract要約: TACTOは、視覚ベースの触覚センサのための高速で柔軟でオープンソースのシミュレータです。
リアルな高解像度のタッチ読み取りを毎秒数百フレームでレンダリングできる。
我々は,100万の把握から触覚による把握安定性の予測を学習することにより,知覚タスクにおけるTACTOの実証を行う。
- 参考スコア(独自算出の注目度): 8.497185333795477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulators perform an important role in prototyping, debugging and
benchmarking new advances in robotics and learning for control. Although many
physics engines exist, some aspects of the real-world are harder than others to
simulate. One of the aspects that have so far eluded accurate simulation is
touch sensing. To address this gap, we present TACTO -- a fast, flexible and
open-source simulator for vision-based tactile sensors. This simulator allows
to render realistic high-resolution touch readings at hundreds of frames per
second, and can be easily configured to simulate different vision-based tactile
sensors, including GelSight, DIGIT and OmniTact. In this paper, we detail the
principles that drove the implementation of TACTO and how they are reflected in
its architecture. We demonstrate TACTO on a perceptual task, by learning to
predict grasp stability using touch from 1 million grasps, and on a marble
manipulation control task. We believe that TACTO is a step towards the
widespread adoption of touch sensing in robotic applications, and to enable
machine learning practitioners interested in multi-modal learning and control.
TACTO is open-source at https://github.com/facebookresearch/tacto.
- Abstract(参考訳): シミュレータは、プロトタイピング、デバッギング、そしてロボット工学の新たな進歩と制御の学習において重要な役割を果たす。
多くの物理エンジンが存在するが、現実世界のいくつかの側面はシミュレーションが難しい。
これまで正確なシミュレーションを行ってきた側面の1つは、タッチセンシングである。
このギャップに対処するために,視覚ベースの触覚センサのための高速でフレキシブルでオープンソースなシミュレータであるtactoを提案する。
このシミュレータは、数百フレーム/秒でリアルな高解像度のタッチ読み取りをレンダリングでき、ゲルビジョン、デジット、omnitactなど、さまざまな視覚ベースの触覚センサーをシミュレートできる。
本稿では,TACTOの実装を推進した原則と,それらがアーキテクチャにどのように反映されているかを詳述する。
我々は,100万把持と大理石操作制御タスクから,タッチによる把持安定性の予測を学習し,知覚課題のtactoを示す。
TACTOは、ロボットアプリケーションにおけるタッチセンシングの普及に向けての一歩であり、マルチモーダル学習と制御に関心を持つ機械学習実践者の実現を目的としています。
tactoはhttps://github.com/facebookresearch/tactoでオープンソースである。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing [43.269672740168396]
3次せん断力と2次正規力のゼロショット・シミュレートを可能にする触覚皮膚センサモデルを提案する。
触覚センシングが様々な未確認オブジェクト特性へのポリシー適応をどのように促進するかを評価するために、広範囲な実世界の実験を行う。
論文 参考訳(メタデータ) (2024-07-10T17:52:30Z) - VR-LENS: Super Learning-based Cybersickness Detection and Explainable
AI-Guided Deployment in Virtual Reality [1.9642496463491053]
本研究は、サイバーシック検出MLモデルを開発するための、説明可能な人工知能(XAI)ベースのフレームワークであるVR-LENSを提案する。
我々はまず,サイバーシック検出のための新しいスーパーラーニングベースのアンサンブルMLモデルを開発した。
本手法は, 眼球運動, プレイヤー位置, ガルバニックスキン/ハートレート応答を, 統合センサ, ゲームプレイ, 生体生理学的データセットの最も重要な特徴として同定した。
論文 参考訳(メタデータ) (2023-02-03T20:15:51Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning to Fly -- a Gym Environment with PyBullet Physics for
Reinforcement Learning of Multi-agent Quadcopter Control [0.0]
本稿では,Bullet物理エンジンに基づく複数クワッドコプターのオープンソース環境を提案する。
マルチエージェントおよびビジョンベースの強化学習インターフェース、および現実的な衝突と空力効果のサポートは、私たちの知識の最高に、その種の最初のものにします。
論文 参考訳(メタデータ) (2021-03-03T02:47:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。