論文の概要: Monocular Depth Estimation for Soft Visuotactile Sensors
- arxiv url: http://arxiv.org/abs/2101.01677v1
- Date: Tue, 5 Jan 2021 17:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 13:46:54.610221
- Title: Monocular Depth Estimation for Soft Visuotactile Sensors
- Title(参考訳): ソフト振動センサの単眼深度推定
- Authors: Rares Ambrus, Vitor Guizilini, Naveen Kuppuswamy, Andrew Beaulieu,
Adrien Gaidon, Alex Alspach
- Abstract要約: 高密度内部(触覚)深度マップを内部小型赤外線イメージングセンサから直接推定するための最先端の単眼深度推定法の適用について検討した。
深層ネットワークは, ほとんどがテクスチャのない変形可能な流体充填センサ内において, より短い範囲(1~100mm)で精度の高い予測を行うために効果的に訓練できることを示す。
多種多様物体に対して10秒未満のランダムポーズを10秒未満で要求するオブジェクト非依存ネットワークを訓練する,単純な教師付き学習プロセスを提案する。
- 参考スコア(独自算出の注目度): 24.319343057803973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fluid-filled soft visuotactile sensors such as the Soft-bubbles alleviate key
challenges for robust manipulation, as they enable reliable grasps along with
the ability to obtain high-resolution sensory feedback on contact geometry and
forces. Although they are simple in construction, their utility has been
limited due to size constraints introduced by enclosed custom IR/depth imaging
sensors to directly measure surface deformations. Towards mitigating this
limitation, we investigate the application of state-of-the-art monocular depth
estimation to infer dense internal (tactile) depth maps directly from the
internal single small IR imaging sensor. Through real-world experiments, we
show that deep networks typically used for long-range depth estimation (1-100m)
can be effectively trained for precise predictions at a much shorter range
(1-100mm) inside a mostly textureless deformable fluid-filled sensor. We
propose a simple supervised learning process to train an object-agnostic
network requiring less than 10 random poses in contact for less than 10 seconds
for a small set of diverse objects (mug, wine glass, box, and fingers in our
experiments). We show that our approach is sample-efficient, accurate, and
generalizes across different objects and sensor configurations unseen at
training time. Finally, we discuss the implications of our approach for the
design of soft visuotactile sensors and grippers.
- Abstract(参考訳): ソフトバブルのような流体充填型ソフトビゾタクティルセンサーは、接触形状や力に対する高精度な感覚フィードバックを得る能力とともに、信頼性の高い把握を可能にするため、堅牢な操作において重要な課題を軽減する。
構造は単純だが、表面の変形を直接測定するカスタムIR/深度イメージングセンサーによって生じる大きさの制約により、実用性は制限されている。
この限界を緩和するために, 内部の小型赤外線イメージングセンサから直接内部(触覚)の深度マップを推定するために, 最先端の単眼深度推定法を適用した。
実世界実験により, 深層ネットワークは, ほとんどがテクスチャレス変形可能な流体充填センサ内のより短い範囲 (1-100mm) で精度の高い予測を行うために効果的に訓練できることを示した。
そこで本研究では,10秒未満のランダムポーズを必要とする物体認識ネットワークを,少量の多様な物体(マグ,ワイングラス,ボックス,指)に対して簡単な教師付き学習プロセスを提案する。
私たちのアプローチはサンプル効率が高く、精度が高く、トレーニング時に認識できないさまざまなオブジェクトやセンサ構成を一般化する。
最後に, ソフト振動センサとグリッパーの設計における我々のアプローチの意義について考察する。
関連論文リスト
- FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors [18.88211706267447]
視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
論文 参考訳(メタデータ) (2024-10-02T21:28:19Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - UltraGlove: Hand Pose Estimation with Mems-Ultrasonic Sensors [14.257535961674021]
指に装着した複数のMEMS超音波センサを用いた手指追跡グローブを提案する。
実験の結果,本手法は精度,サイズに依存し,外的干渉に対して頑健であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T03:41:47Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Collision-aware In-hand 6D Object Pose Estimation using Multiple
Vision-based Tactile Sensors [4.886250215151643]
物体表面に沿ったセンサの空間的配置が考えられる理由を考察する。
選択したセンサー構成を用いて6Dポーズの空間を最適化する。
得られたポーズは、センサーと衝突しているポーズをペナルティ化することでランク付けする。
論文 参考訳(メタデータ) (2023-01-31T14:35:26Z) - The secret role of undesired physical effects in accurate shape sensing
with eccentric FBGs [1.0805335573008565]
偏心ファイバブラッググレーティング(FBG)は安価でファブリケートな形状のセンサーであり、単純な設定でしばしば尋問される。
本稿では,これらの限界を克服し,正確な形状推定を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T09:07:08Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。