論文の概要: A Distance-Geometric Method for Recovering Robot Joint Angles From an
RGB Image
- arxiv url: http://arxiv.org/abs/2301.02051v2
- Date: Thu, 27 Apr 2023 16:18:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 16:45:17.952482
- Title: A Distance-Geometric Method for Recovering Robot Joint Angles From an
RGB Image
- Title(参考訳): RGB画像からロボット関節角を復元するための距離幾何学的手法
- Authors: Ivan Bili\'c, Filip Mari\'c, Ivan Markovi\'c, Ivan Petrovi\'c
- Abstract要約: 本稿では,ロボットマニピュレータの関節角度を現在の構成の1つのRGB画像のみを用いて検索する手法を提案する。
提案手法は,構成空間の距離幾何学的表現に基づいて,ロボットの運動モデルに関する知識を活用する。
- 参考スコア(独自算出の注目度): 7.971699294672282
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous manipulation systems operating in domains where human intervention
is difficult or impossible (e.g., underwater, extraterrestrial or hazardous
environments) require a high degree of robustness to sensing and communication
failures. Crucially, motion planning and control algorithms require a stream of
accurate joint angle data provided by joint encoders, the failure of which may
result in an unrecoverable loss of functionality. In this paper, we present a
novel method for retrieving the joint angles of a robot manipulator using only
a single RGB image of its current configuration, opening up an avenue for
recovering system functionality when conventional proprioceptive sensing is
unavailable. Our approach, based on a distance-geometric representation of the
configuration space, exploits the knowledge of a robot's kinematic model with
the goal of training a shallow neural network that performs a 2D-to-3D
regression of distances associated with detected structural keypoints. It is
shown that the resulting Euclidean distance matrix uniquely corresponds to the
observed configuration, where joint angles can be recovered via
multidimensional scaling and a simple inverse kinematics procedure. We evaluate
the performance of our approach on real RGB images of a Franka Emika Panda
manipulator, showing that the proposed method is efficient and exhibits solid
generalization ability. Furthermore, we show that our method can be easily
combined with a dense refinement technique to obtain superior results.
- Abstract(参考訳): 人間の介入が困難または不可能(例えば、水中、地球外、または危険な環境)な領域で動作する自律的な操作システムは、センシングや通信の失敗に対して高い堅牢性を必要とする。
重要なことに、動作計画と制御アルゴリズムは、ジョイントエンコーダによって提供される正確な関節角データのストリームを必要とする。
本稿では,ロボットマニピュレータの関節角度を現在の構成の1つのRGB画像のみを用いて検索する方法を提案する。
本手法は,検出された構造的キーポイントに関連する距離の2次元から3次元回帰を行う浅層ニューラルネットワークを訓練することを目的として,ロボットの運動モデルの知識を活用している。
結果として得られるユークリッド距離行列は観測された配置と一意に一致し、多次元スケーリングと単純な逆キネマティックス手順によって関節角度を回復できる。
本研究では,フランカ・エミカ・パンダマニピュレータの実際のRGB画像に対するアプローチの性能評価を行い,提案手法が効率的であり,高い一般化能力を示すことを示す。
さらに, この手法と高密度精錬技術とを組み合わせることで, 優れた結果が得られることを示す。
関連論文リスト
- Kinematics-based 3D Human-Object Interaction Reconstruction from Single View [10.684643503514849]
既存の方法は、単に身体のポーズを単に屋内データセットのネットワークトレーニングに依存するだけである。
本研究では,人体の関節を人体接触領域へ正確に駆動するキネマティクスに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T05:44:35Z) - Robust Surgical Tool Tracking with Pixel-based Probabilities for
Projected Geometric Primitives [28.857732667640068]
視覚フィードバックによるロボットマニピュレータの制御には、ロボットとカメラの間の既知の座標フレーム変換が必要である。
メカニカルシステムとカメラキャリブレーションの不確かさは、この座標フレーム変換に誤りをもたらす。
画像ベース挿入軸検出アルゴリズムと確率モデルを用いて,手術用ロボットのカメラ間変換と関節角度測定誤差を推定する。
論文 参考訳(メタデータ) (2024-03-08T00:57:03Z) - Egocentric RGB+Depth Action Recognition in Industry-Like Settings [50.38638300332429]
本研究は,産業的な環境下での自我中心のRGBとDepthモダリティからの行動の認識に焦点を当てる。
我々のフレームワークは、RGBとDepthの両方のモダリティを効果的に符号化する3DビデオSWIN変換器に基づいている。
また,ICIAP 2023におけるマルチモーダル動作認識チャレンジにおいて,本手法が第1位を確保した。
論文 参考訳(メタデータ) (2023-09-25T08:56:22Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Occlusion-robust Visual Markerless Bone Tracking for Computer-Assisted
Orthopaedic Surgery [41.681134859412246]
閉塞に対して頑健なRGB-Dセンサを用いたマーカーレストラッキング手法を提案する。
高品質な商用RGB-Dカメラを用いて,モデル膝の1-2デグレスと2-4mmの精度を実現する。
論文 参考訳(メタデータ) (2021-08-24T09:49:08Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Depth by Poking: Learning to Estimate Depth from Self-Supervised
Grasping [6.382990675677317]
我々は、RGB-D画像から深度を推定するためにニューラルネットワークモデルを訓練する。
我々のネットワークは、入力画像の各ピクセルについて、ロボットのエンドエフェクターが対応する位置をつかんだり突いたりしようとすると、Z位置が到達すると予測する。
本手法は従来の構造光センサよりも根平均二乗誤差が有意に低いことを示す。
論文 参考訳(メタデータ) (2020-06-16T03:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。