論文の概要: Investigating Active Sampling for Hardness Classification with Vision-Based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2505.13231v1
- Date: Mon, 19 May 2025 15:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.689114
- Title: Investigating Active Sampling for Hardness Classification with Vision-Based Tactile Sensors
- Title(参考訳): 視覚型触覚センサを用いた硬度分類のためのアクティブサンプリングの検討
- Authors: Junyi Chen, Alap Kshirsagar, Frederik Heller, Mario Gómez Andreu, Boris Belousov, Tim Schneider, Lisa P. Y. Lin, Katja Doerschner, Knut Drewing, Jan Peters,
- Abstract要約: 人間とロボットが触覚を通して知覚する最も重要な物体の1つは硬さである。
本稿では,視覚に基づく触覚センサを用いたサンプル効率の高い硬度分類のための情報理論アクティブサンプリング手法について検討する。
- 参考スコア(独自算出の注目度): 13.051209683232447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the most important object properties that humans and robots perceive through touch is hardness. This paper investigates information-theoretic active sampling strategies for sample-efficient hardness classification with vision-based tactile sensors. We evaluate three probabilistic classifier models and two model-uncertainty-based sampling strategies on a robotic setup as well as on a previously published dataset of samples collected by human testers. Our findings indicate that the active sampling approaches, driven by uncertainty metrics, surpass a random sampling baseline in terms of accuracy and stability. Additionally, while in our human study, the participants achieve an average accuracy of 48.00%, our best approach achieves an average accuracy of 88.78% on the same set of objects, demonstrating the effectiveness of vision-based tactile sensors for object hardness classification.
- Abstract(参考訳): 人間とロボットがタッチを通して知覚する最も重要な物体の1つは硬さである。
本稿では,視覚に基づく触覚センサを用いたサンプル効率の高い硬度分類のための情報理論アクティブサンプリング手法について検討する。
本研究では,3つの確率的分類モデルと2つのモデル不確実性に基づくサンプリング戦略を,ロボットのセットアップと,ヒトのテスタが収集したサンプルのデータセット上で評価する。
その結果,不確実性指標によって誘導されるアクティブサンプリングアプローチが,精度と安定性の点でランダムサンプリングベースラインを超えていることが示唆された。
また,人間の研究では,被験者の平均精度は48.00%であったが,対象物に対して平均精度88.78%を達成し,視力に基づく触覚センサによる物体硬度分類の有効性を実証した。
関連論文リスト
- HeAL3D: Heuristical-enhanced Active Learning for 3D Object Detection [1.623951368574041]
HeAL(Heuristical-enhanced Active Learning for 3D Object Detection)を導入し、モデルのトレーニングに最も貢献するサンプルを提供する。
従来の研究とは対照的に,本手法では,不確実性を推定するために,対象距離や点量などの達成的特徴を統合している。
KITTI を用いた評価では,HeAL は 最先端の mAP と完全教師付きベースラインと同じ mAP を,サンプルの 24% しか持たない。
論文 参考訳(メタデータ) (2025-05-01T13:24:55Z) - What Matters for Active Texture Recognition With Vision-Based Tactile Sensors [17.019982978396122]
触覚ファブリック認識の文脈におけるアクティブサンプリング問題を定式化する。
迅速かつ信頼性の高いテクスチャ認識には,どのコンポーネントが不可欠かを検討する。
われわれのベストアプローチは5タッチ未満で90.0%に達し、視覚ベースの触覚センサが布のテクスチャ認識に極めて有効であることを強調した。
論文 参考訳(メタデータ) (2024-03-20T16:06:01Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy [6.739132519488627]
本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。
我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。
その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T03:16:21Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - Fingerprint Liveness Detection Based on Quality Measures [66.76480178498315]
新たな特徴セットは、完全なライブネス検出システムで使用され、LivDETコンペティションの開発セットでテストされている。
提案手法はマルチセンサのシナリオに対して堅牢であることが証明され、全体の93%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2022-07-11T12:15:27Z) - A high performance fingerprint liveness detection method based on
quality related features [66.41574316136379]
このシステムは、10,500枚以上の実画像と偽画像からなる非常に難しいデータベースでテストされている。
提案手法はマルチシナリオデータセットに対して堅牢であることが証明され、全体の90%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2021-11-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。