論文の概要: Using The Feedback of Dynamic Active-Pixel Vision Sensor (Davis) to
Prevent Slip in Real Time
- arxiv url: http://arxiv.org/abs/2111.05308v1
- Date: Tue, 9 Nov 2021 18:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 16:54:18.896148
- Title: Using The Feedback of Dynamic Active-Pixel Vision Sensor (Davis) to
Prevent Slip in Real Time
- Title(参考訳): ダイナミックアクティブ・カメラ・ビジョン・センサ(デイビス)のフィードバックを用いたリアルタイムスリップ防止
- Authors: Armin Masoumian, Pezhman kazemi, Mohammad Chehreghani Montazer, Hatem
A. Rashwan, Domenec Puig Valls
- Abstract要約: 本稿では,リアルタイムフィードバックにおけるすべりおよび接触力の検出手法について述べる。
DAVISカメラは、高速なプロセス速度と高解像度のため、視覚触覚センサーとして使用される。
- 参考スコア(独自算出の注目度): 3.6748639131154315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of this paper is to describe an approach to detect the slip and
contact force in real-time feedback. In this novel approach, the DAVIS camera
is used as a vision tactile sensor due to its fast process speed and high
resolution. Two hundred experiments were performed on four objects with
different shapes, sizes, weights, and materials to compare the accuracy and
response of the Baxter robot grippers to avoid slipping. The advanced approach
is validated by using a force-sensitive resistor (FSR402). The events captured
with the DAVIS camera are processed with specific algorithms to provide
feedback to the Baxter robot aiding it to detect the slip.
- Abstract(参考訳): 本研究の目的は, リアルタイムフィードバックにおけるすべりおよび接触力の検出手法について述べることである。
このアプローチでは、DAVISカメラは高速なプロセス速度と高解像度のために視覚触覚センサとして使用される。
バクスターロボットのグリッパーの精度と応答を比較するために, 形状, 大きさ, 重量, 材質の異なる4つの物体に対して200実験を行った。
高度なアプローチは、力感受性抵抗 (FSR402) を用いて検証される。
DAVISカメラで捉えたイベントは、特定のアルゴリズムで処理され、スリップを検出するのを助けるバクスターロボットにフィードバックを提供する。
関連論文リスト
- No Identity, no problem: Motion through detection for people tracking [48.708733485434394]
本稿では,検出のみの監視を行いながら,動きの手がかりを利用する手法を提案する。
提案アルゴリズムは,2つの画像間の2次元運動推定とともに,2つの異なるタイミングで熱マップを検出する。
提案手法は,MOT17およびWILDTRACKデータセット上でのマルチターゲット・シングルビュー・マルチターゲット・トラッキングに対して,最先端の結果を提供する。
論文 参考訳(メタデータ) (2024-11-25T15:13:17Z) - Evetac: An Event-based Optical Tactile Sensor for Robotic Manipulation [20.713880984921385]
Evetacはイベントベースの光学触覚センサーである。
タッチ処理アルゴリズムを開発し,その測定結果を1000Hzでオンラインで処理する。
Evetacの出力とマーカー追跡は、データ駆動スリップの検出と予測モデルを学ぶ上で有意義な機能を提供する。
論文 参考訳(メタデータ) (2023-12-02T22:01:49Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Kinematically-Decoupled Impedance Control for Fast Object Visual
Servoing and Grasping on Quadruped Manipulators [18.279073092727025]
本稿では,分離アームキネマティックチェーンとインピーダンス制御に基づいて,オブジェクトのSAG(Searching, Approaching, Grasping)の制御パイプラインを提案する。
キネマティックデカップリングは、高速なエンドエフェクター運動と回復を可能にし、堅牢な視覚サーボに繋がる。
7-DoFマニピュレータアームを搭載した140kgのHyQReal四足歩行ロボットにおいて,提案手法の性能とロバスト性を実証した。
論文 参考訳(メタデータ) (2023-07-10T21:51:06Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - People Tracking in Panoramic Video for Guiding Robots [2.092922495279074]
ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T16:44:38Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Real-time multiview data fusion for object tracking with RGBD sensors [4.68299658663016]
本稿では,赤緑色深度カメラ(RGBD)のマルチビュー設定により,移動体を正確に追跡する新しい手法を提案する。
まず,装着時に深度センサに発生する変化を除去する補正法を提案する。
次に,未知の車両動作を補正するセンサワイズフィルタリングシステムを提案する。
論文 参考訳(メタデータ) (2021-10-28T09:24:49Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。