論文の概要: Visual Estimation of Fingertip Pressure on Diverse Surfaces using Easily
Captured Data
- arxiv url: http://arxiv.org/abs/2301.02310v2
- Date: Fri, 21 Apr 2023 20:32:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 21:27:32.413977
- Title: Visual Estimation of Fingertip Pressure on Diverse Surfaces using Easily
Captured Data
- Title(参考訳): 簡易捕捉データを用いた多様な表面上の指先圧力の視覚的推定
- Authors: Patrick Grady, Jeremy A. Collins, Chengcheng Tang, Christopher D.
Twigg, Kunal Aneja, James Hays, Charles C. Kemp
- Abstract要約: 本稿では,RGBカメラと協力的参加者のみを用いて,多様なデータをキャプチャ可能な新しいアプローチを提案する。
私たちの重要な洞察は、接触圧力を示すカテゴリラベルに対応するアクションを実行するように促すことができるということです。
提案手法の有効性を,51名の被験者が指先を楽器や非楽器の物体と接触させる新しいデータセットを用いて評価し,その有効性を実証した。
- 参考スコア(独自算出の注目度): 21.703024597926976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People often use their hands to make contact with the world and apply
pressure. Machine perception of this important human activity could be widely
applied. Prior research has shown that deep models can estimate hand pressure
based on a single RGB image. Yet, evaluations have been limited to controlled
settings, since performance relies on training data with high-resolution
pressure measurements that are difficult to obtain. We present a novel approach
that enables diverse data to be captured with only an RGB camera and a
cooperative participant. Our key insight is that people can be prompted to
perform actions that correspond with categorical labels describing contact
pressure (contact labels), and that the resulting weakly labeled data can be
used to train models that perform well under varied conditions. We demonstrate
the effectiveness of our approach by training on a novel dataset with 51
participants making fingertip contact with instrumented and uninstrumented
objects. Our network, ContactLabelNet, dramatically outperforms prior work,
performs well under diverse conditions, and matched or exceeded the performance
of human annotators.
- Abstract(参考訳): 人々はしばしば手を使って世界と接触し、圧力をかける。
この重要な人間の活動に対する機械の認識は広く適用できる。
先行研究では、深層モデルが単一のrgb画像に基づいて手圧を推定できることが示されている。
しかし、評価は制御された設定に限られており、性能は取得が困難な高分解能圧力測定によるトレーニングデータに依存している。
本稿では,RGBカメラと協力的参加者のみを用いて,多様なデータをキャプチャ可能な新しいアプローチを提案する。
私たちの重要な洞察は、人々は接触圧力(接触ラベル)を記述したカテゴリラベルに対応するアクションを実行し、結果として生じる弱いラベル付きデータは、さまざまな条件下でうまく機能するモデルのトレーニングに使用できるということです。
提案手法の有効性を,51名の被験者が指先を楽器や非楽器の物体と接触させる新しいデータセットを用いて評価した。
当社のネットワークであるContactLabelNetは,従来より劇的にパフォーマンスが向上し,多様な条件下では良好に動作し,人間のアノテータのパフォーマンスと一致あるいは上回った。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - PressureTransferNet: Human Attribute Guided Dynamic Ground Pressure
Profile Transfer using 3D simulated Pressure Maps [7.421780713537146]
PressureTransferNetは、ソースの圧力マップとターゲットの人間属性ベクトルを入力として取り込むエンコーダ・デコーダモデルである。
センサシミュレーションを用いて、さまざまな人的属性と圧力プロファイルを持つ多様なデータセットを作成する。
物理に基づく深層学習モデルを用いて, 合成圧力形状の忠実度を視覚的に確認し, 接地領域での2乗R2乗値0.79を得る。
論文 参考訳(メタデータ) (2023-08-01T13:31:25Z) - RidgeBase: A Cross-Sensor Multi-Finger Contactless Fingerprint Dataset [10.219621548854343]
RidgeBaseは、88人の個人から取得された15,000以上の接触のない指紋と接触ベースの指紋画像のペアで構成されている。
既存のデータセットとは異なり、RageBaseは異なるマッチングシナリオ下での研究を促進するように設計されている。
本稿では,顔認識データセットの進歩に触発されたセットベースマッチングプロトコルを提案する。
論文 参考訳(メタデータ) (2023-07-09T22:09:15Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - PressureVision: Estimating Hand Pressure from a Single RGB Image [27.449311565446443]
従来のRGBカメラを用いて手圧力を推定する可能性を探る。
計器面に圧力を印加した多彩な皮膚緊張を有する36名の被験者の映像を収集した。
我々は1枚のRGB画像から圧力像を推測するために深部モデル(PressureVisionNet)を訓練した。
論文 参考訳(メタデータ) (2022-03-19T19:54:56Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Pressure Eye: In-bed Contact Pressure Estimation via Contact-less
Imaging [18.35652911833834]
人体と横になっている表面との間の接触圧を推定するために,我々の圧力眼(PEye)アプローチを提案する。
PEyeは最終的にベッドバウンド患者の圧力潰瘍の予測と早期検出を可能にした。
論文 参考訳(メタデータ) (2022-01-27T22:22:17Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。