論文の概要: Visibility-Inspired Models of Touch Sensors for Navigation
- arxiv url: http://arxiv.org/abs/2203.04751v1
- Date: Fri, 4 Mar 2022 08:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 13:46:29.817587
- Title: Visibility-Inspired Models of Touch Sensors for Navigation
- Title(参考訳): ナビゲーション用タッチセンサの可視性モデル
- Authors: Kshitij Tiwari, Basak Sakcak, Prasanna Routray, Manivannan M., and
Steven M. LaValle
- Abstract要約: 本稿では,可視性に基づく移動ロボット用タッチセンサの数学的モデルを提案する。
導入されたモデルは、タスク関連情報の有用で理想的な特徴付けを提供すると期待されている。
- 参考スコア(独自算出の注目度): 4.730233684561005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces mathematical models of touch sensors for mobile
robotics based on visibility. Serving a purpose similar to the pinhole camera
model for computer vision, the introduced models are expected to provide a
useful, idealized characterization of task-relevant information that can be
inferred from their outputs or observations. This allows direct comparisons to
be made between traditional depth sensors, highlighting cases in which touch
sensing may be interchangeable with time of flight or vision sensors, and
characterizing unique advantages provided by touch sensing. The models include
contact detection, compression, load bearing, and deflection. The results could
serve as a basic building block for innovative touch sensor designs for mobile
robot sensor fusion systems.
- Abstract(参考訳): 本稿では,可視性に基づく移動ロボット用タッチセンサの数学的モデルを提案する。
コンピュータビジョンのためのピンホールカメラモデルに類似した目的により、導入されたモデルは、その出力や観測から推測できるタスク関連情報の有用で理想的な特徴付けを提供すると期待されている。
これにより、従来の深度センサーと、飛行時や視覚センサーとタッチセンシングが交換可能なケースをハイライトし、タッチセンシングによって提供されるユニークな利点を特徴付けることができる。
モデルには接触検出、圧縮、荷重軸受、偏向が含まれる。
この結果は、モバイルロボットセンサー融合システムのための革新的なタッチセンサー設計の基本的な構成要素となるかもしれない。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Controllable Visual-Tactile Synthesis [28.03469909285511]
一つのスケッチから視覚と触覚の両方の出力を合成する条件生成モデルを開発した。
次に,電気接着型触覚デバイスに高品質な視覚・触覚出力を描画するパイプラインを導入する。
論文 参考訳(メタデータ) (2023-05-04T17:59:51Z) - Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems [0.13048920509133805]
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
論文 参考訳(メタデータ) (2023-03-18T04:57:46Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - DenseTact: Optical Tactile Sensor for Dense Shape Reconstruction [0.0]
視覚に基づく触覚センサは、リッチな触覚フィードバックが操作タスクのパフォーマンス向上と相関しているため、広く利用されている。
高解像度の既存の触覚センサーソリューションには、低い精度、高価なコンポーネント、スケーラビリティの欠如を含む制限がある。
本稿では,3次元センサの表面再構成のための高分解能表面変形モデルを用いた,安価でスケーラブルでコンパクトな触覚センサを提案する。
論文 参考訳(メタデータ) (2022-01-04T22:26:14Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Investigating the Effect of Sensor Modalities in Multi-Sensor
Detection-Prediction Models [8.354898936252516]
我々は,モデル性能に対するセンサモダリティの寄与に注目した。
また,上記の課題を解決するためにセンサドロップアウトの利用について検討する。
論文 参考訳(メタデータ) (2021-01-09T03:21:36Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。