論文の概要: Visually Guided Object Grasping
- arxiv url: http://arxiv.org/abs/2311.12660v1
- Date: Tue, 21 Nov 2023 15:08:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-23 00:00:55.965708
- Title: Visually Guided Object Grasping
- Title(参考訳): 視覚誘導物体把持
- Authors: Radu Horaud, Fadi Dornaika and Bernard Espiau
- Abstract要約: 直交ステレオリグを用いた3次元射影空間における2つの固体間のアライメントの把握方法を示す。
本稿では,視覚サーボアルゴリズムの性能解析と,このようなアプローチで期待できる把握精度の解析を行う。
- 参考スコア(独自算出の注目度): 19.71383212064634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a visual servoing approach to the problem of object
grasping and more generally, to the problem of aligning an end-effector with an
object. First we extend the method proposed by Espiau et al. [1] to the case of
a camera which is not mounted onto the robot being controlled and we stress the
importance of the real-time estimation of the image Jacobian. Second, we show
how to represent a grasp or more generally, an alignment between two solids in
3-D projective space using an uncalibrated stereo rig. Such a 3-D projective
representation is view-invariant in the sense that it can be easily mapped into
an image set-point without any knowledge about the camera parameters. Third, we
perform an analysis of the performances of the visual servoing algorithm and of
the grasping precision that can be expected from this type of approach.
- Abstract(参考訳): 本稿では,対象物把握問題に対する視覚的サーボアプローチと,より一般に,エンドエフェクタと対象物との整合問題を提案する。
まず,espiauらによって提案された手法を拡張する。
1)制御対象のロボットに装着されていないカメラの場合,ジャコビアン画像のリアルタイム推定の重要性を強調する。
第2に, 3次元射影空間における2つの固体間のアライメントを, 非共役ステレオリグを用いて表現する方法を示す。
このような3次元射影表現は、カメラパラメータに関する知識がなくても簡単に画像セットポイントにマッピングできるという意味でビュー不変である。
第3に,視覚サーボアルゴリズムの性能解析と,このようなアプローチで期待できる把握精度の解析を行う。
関連論文リスト
- Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - 3D-Aware Hypothesis & Verification for Generalizable Relative Object
Pose Estimation [69.73691477825079]
一般化可能なオブジェクトポーズ推定の問題に対処する新しい仮説検証フレームワークを提案する。
信頼性を計測するために,2つの入力画像から学習した3次元オブジェクト表現に3次元変換を明示的に適用する3D認識検証を導入する。
論文 参考訳(メタデータ) (2023-10-05T13:34:07Z) - Self-supervised Wide Baseline Visual Servoing via 3D Equivariance [35.93323183558956]
本稿では,広視野ベースライン画像に対する自己教師付き視覚サーボ手法を提案する。
絶対カメラがオブジェクトに対して作用する既存のアプローチでは、オブジェクトの3D地上真理データが必要である。
平均誤差が35%以上減少し,90%以上の成功率と3cmの誤差耐性が得られた。
論文 参考訳(メタデータ) (2022-09-12T17:38:26Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。