論文の概要: Real-Time Tactile Grasp Force Sensing Using Fingernail Imaging via Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2109.15231v1
- Date: Thu, 30 Sep 2021 16:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:41:13.995073
- Title: Real-Time Tactile Grasp Force Sensing Using Fingernail Imaging via Deep
Neural Networks
- Title(参考訳): 深層ニューラルネットワークを用いたフィンガーネイルイメージングによるリアルタイム触覚把持力センシング
- Authors: Navid Fallahinia, Stephen Mascaro
- Abstract要約: 本稿では,人間の指先による視覚のみによる3次元触覚力のリアルタイム推定のための新しいアプローチを提案する。
導入されたアプローチは、完全に単眼で、物理的な力センサーを必要としない。
スケーラブルで非侵襲的で、ボディポーズ推定のような他の知覚システムと容易に融合する。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper has introduced a novel approach for the real-time estimation of 3D
tactile forces exerted by human fingertips via vision only. The introduced
approach is entirely monocular vision-based and does not require any physical
force sensor. Therefore, it is scalable, non-intrusive, and easily fused with
other perception systems such as body pose estimation, making it ideal for HRI
applications where force sensing is necessary. The introduced approach consists
of three main modules: finger tracking for detection and tracking of each
individual finger, image alignment for preserving the spatial information in
the images, and the force model for estimating the 3D forces from coloration
patterns in the images. The model has been implemented experimentally, and the
results have shown a maximum RMS error of 8.4% (for the entire range of force
levels) along all three directions. The estimation accuracy is comparable to
the offline models in the literature, such as EigneNail, while, this model is
capable of performing force estimation at 30 frames per second.
- Abstract(参考訳): 本稿では,人間の指先による視覚のみによる3次元触覚力のリアルタイム推定のための新しいアプローチを提案する。
導入されたアプローチは完全に単眼視覚ベースで、物理的な力センサーを必要としない。
したがって、これはスケーラブルで非侵襲的で、ボディポーズ推定などの他の知覚システムと容易に融合し、力覚を必要とするHRIアプリケーションに最適である。
提案手法は,各指の検出・追跡のための指追跡,画像内の空間情報を保存するための画像アライメント,画像内の着色パターンから3次元力を推定する力モデル,の3つの主要モジュールから構成される。
このモデルは実験的に実装されており、結果は3つの方向に沿って最大rms誤差が8.4%(全力レベル)であることを示した。
推定精度はeignenailのような文献のオフラインモデルに匹敵するが、このモデルは毎秒30フレームの力推定を行うことができる。
関連論文リスト
- TouchSDF: A DeepSDF Approach for 3D Shape Reconstruction using
Vision-Based Tactile Sensing [29.691786688595762]
人間は視覚と触覚に頼り、身体環境の総合的な3D理解を開発する。
触覚3次元形状再構成のための深層学習手法であるTouchSDFを提案する。
本手法は,(1)触覚画像をタッチ位置の局所メッシュにマッピングする畳み込みニューラルネットワーク,(2)署名された距離関数を予測して所望の3次元形状を抽出する暗黙的ニューラルネットワークの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-11-21T13:43:06Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Accurate Eye Tracking from Dense 3D Surface Reconstructions using Single-Shot Deflectometry [13.297188931807586]
単発位相計測-デフレクトメトリー(PMD)を用いた視線方向の高精度かつ高速な評価法を提案する。
本手法は,1枚のカメラフレーム(単一ショット)内でのみ,角膜および頭蓋骨の高密度な3次元表面情報を取得する。
実写モデル眼における視線誤差を0.12円以下で実験的に評価し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-14T17:36:39Z) - An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection [72.30883544352918]
異なる条件下で,擬似ラベルがベースラインモデルに対して効果的に監視できるかどうかを検討する。
ベルとホイッスルを使わずにKITTI-3Dテストセットの適度なレベルを20.23 APで達成し、ベースラインモデルを6.03 APで改善した。
この研究が、半教師付き環境下で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2022-08-15T12:17:46Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - A soft thumb-sized vision-based sensor with accurate all-round force
perception [19.905154050561013]
視覚ベースの触覚センサーは、安価な高解像度カメラとコンピュータビジョン技術の成功により、ロボットタッチへの有望なアプローチとして登場した。
我々はInsightという名前の、頑丈でソフトで低コストで、視覚ベースで親指サイズの3D触覚センサーを提示する。
論文 参考訳(メタデータ) (2021-11-10T20:46:23Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Multi-Scale Networks for 3D Human Pose Estimation with Inference Stage
Optimization [33.02708860641971]
モノクロビデオから3Dのポーズを推定することは、まだまだ難しい課題だ。
既存の多くのメソッドは、対象の人が他のオブジェクトに干渉されたり、トレーニングデータのスケールや速度に対して動きが速すぎたり、遅くなったりすると低下する。
頑健な3次元ポーズ推定のための時間的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T15:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。