論文の概要: Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2506.14980v1
- Date: Tue, 17 Jun 2025 21:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.484865
- Title: Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Title(参考訳): コンプライアンス検出の進歩:視覚ベース触覚センサを用いた新しいモデル
- Authors: Ziteng Li, Malte Kuhlmann, Ilana Nisky, Nicolás Navarro-Guerrero,
- Abstract要約: コンプライアンスは、工学、農業、生物医学の応用におけるオブジェクトを記述するための重要なパラメータである。
従来のコンプライアンス検出方法は、ポータビリティとスケーラビリティの欠如によって制限されており、特殊な高価な機器に依存しており、ロボット用途には適さない。
本稿では,LRCN(Long-term Recurrent Convolutional Networks)とTransformerアーキテクチャに基づく2つのモデルを提案する。
- 参考スコア(独自算出の注目度): 0.7199733380797579
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Compliance is a critical parameter for describing objects in engineering, agriculture, and biomedical applications. Traditional compliance detection methods are limited by their lack of portability and scalability, rely on specialized, often expensive equipment, and are unsuitable for robotic applications. Moreover, existing neural network-based approaches using vision-based tactile sensors still suffer from insufficient prediction accuracy. In this paper, we propose two models based on Long-term Recurrent Convolutional Networks (LRCNs) and Transformer architectures that leverage RGB tactile images and other information captured by the vision-based sensor GelSight to predict compliance metrics accurately. We validate the performance of these models using multiple metrics and demonstrate their effectiveness in accurately estimating compliance. The proposed models exhibit significant performance improvement over the baseline. Additionally, we investigated the correlation between sensor compliance and object compliance estimation, which revealed that objects that are harder than the sensor are more challenging to estimate.
- Abstract(参考訳): コンプライアンスは、工学、農業、生物医学の応用におけるオブジェクトを記述するための重要なパラメータである。
従来のコンプライアンス検出方法は、ポータビリティとスケーラビリティの欠如によって制限されており、特殊な高価な機器に依存しており、ロボット用途には適さない。
さらに、視覚ベースの触覚センサを用いた既存のニューラルネットワークベースのアプローチでは、予測精度が不十分である。
本稿では,LRCN(Long-term Recurrent Convolutional Networks)とTransformerアーキテクチャに基づく2つのモデルを提案する。
我々は,これらのモデルの性能を複数の指標を用いて検証し,コンプライアンスを正確に推定する上での有効性を実証する。
提案したモデルでは,ベースラインよりも大幅に性能が向上した。
さらに,センサの適合度とオブジェクトの適合度との相関を調べた結果,センサよりも難しいオブジェクトは推定が困難であることが判明した。
関連論文リスト
- What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Graph Neural Networks for Virtual Sensing in Complex Systems: Addressing Heterogeneous Temporal Dynamics [8.715570103753697]
複雑なシステムの信頼性と効率的な運用にはリアルタイム状態監視が不可欠である。
仮想センシングは、利用可能なセンサデータとシステム知識を活用することで制限に対処する。
異種時間グラフニューラルネットワーク(HTGNN)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-26T12:16:53Z) - Physics-Enhanced Graph Neural Networks For Soft Sensing in Industrial Internet of Things [6.374763930914524]
産業用IoT(Industrial Internet of Things)は、製造業、産業プロセス、インフラ管理を変革している。
高度に信頼性の高いIIoTを実現するには、大量のセンサーをインストールするコスト、既存のシステムにセンサーを組み直す際の制限、センサーの設置を非現実的にする厳しい環境条件などの要因が伴う。
物理の原理をグラフベースの方法論に統合する物理強化グラフニューラルネットワーク(GNN)を提案する。
論文 参考訳(メタデータ) (2024-04-11T18:03:59Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Visibility-Inspired Models of Touch Sensors for Navigation [4.730233684561005]
本稿では,可視性に基づく移動ロボット用タッチセンサの数学的モデルを提案する。
導入されたモデルは、タスク関連情報の有用で理想的な特徴付けを提供すると期待されている。
論文 参考訳(メタデータ) (2022-03-04T08:23:01Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。