論文の概要: Control of the Final-Phase of Closed-Loop Visual Grasping using
Image-Based Visual Servoing
- arxiv url: http://arxiv.org/abs/2001.05650v2
- Date: Fri, 28 Feb 2020 03:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 00:49:11.650583
- Title: Control of the Final-Phase of Closed-Loop Visual Grasping using
Image-Based Visual Servoing
- Title(参考訳): 画像ベースビジュアルサーボによる閉ループ視覚グラフプの最終動作制御
- Authors: Jesse Haviland, Feras Dayoub, Peter Corke
- Abstract要約: 現在のロボットグリップコントローラの多くはクローズドループではないため、物体を動かすのに失敗する。
本稿では、カメラRGB情報を用いて、画像に基づく視覚サーボを用いて、ロボットをオブジェクト相対的グリップポーズに誘導する手法を提案する。
- 参考スコア(独自算出の注目度): 12.368559816913585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the final approach phase of visual-closed-loop grasping
where the RGB-D camera is no longer able to provide valid depth information.
Many current robotic grasping controllers are not closed-loop and therefore
fail for moving objects. Closed-loop grasp controllers based on RGB-D imagery
can track a moving object, but fail when the sensor's minimum object distance
is violated just before grasping. To overcome this we propose the use of
image-based visual servoing (IBVS) to guide the robot to the object-relative
grasp pose using camera RGB information. IBVS robustly moves the camera to a
goal pose defined implicitly in terms of an image-plane feature configuration.
In this work, the goal image feature coordinates are predicted from RGB-D data
to enable RGB-only tracking once depth data becomes unavailable -- this enables
more reliable grasping of previously unseen moving objects. Experimental
results are provided.
- Abstract(参考訳): 本稿では、RGB-Dカメラがもはや有効な深度情報を提供できない視覚閉ループ把握の最終アプローチフェーズについて考察する。
現在のロボット把持コントローラの多くはクローズドループではなく、移動物体では失敗する。
rgb-d画像に基づくクローズドループ把持コントローラは、移動物体を追跡することができるが、センサーの最小物体距離が把持直前に違反した場合に失敗する。
そこで本研究では,ロボットをカメラrgb情報を用いて物体関係把握姿勢に導くためのイメージベース視覚サーボ法(ibvs)を提案する。
ibvは、画像平面の特徴構成の観点から暗黙的に定義された目標ポーズにカメラをロバストに移動させる。
本研究では、目標画像特徴座標をRGB-Dデータから予測し、深度データが利用できなくなると、RGBのみの追跡を可能にする。
実験結果が提供される。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - ASGrasp: Generalizable Transparent Object Reconstruction and Grasping from RGB-D Active Stereo Camera [9.212504138203222]
RGB-Dアクティブステレオカメラを用いた6自由度グリップ検出ネットワークASGraspを提案する。
本システムでは, 透明物体形状再構成において, 生のIRおよびRGB画像を直接利用できることで, 自己を識別する。
実験により、ASGraspは、一般化可能な透明物体把握において90%以上の成功率を達成できることが示された。
論文 参考訳(メタデータ) (2024-05-09T09:44:51Z) - ImageManip: Image-based Robotic Manipulation with Affordance-guided Next
View Selection [10.162882793554191]
ロボットが環境と対話するためには、3Dの関節による物体操作が不可欠である。
既存の多くの研究では、操作ポリシーの主要な入力として3Dポイントクラウドを使用している。
RGB画像は、コスト効率の良い装置を用いた高分解能な観察を提供するが、空間的3次元幾何学的情報は欠如している。
このフレームワークは、対象対象物の複数の視点を捉え、その幾何学を補完するために深度情報を推測するように設計されている。
論文 参考訳(メタデータ) (2023-10-13T12:42:54Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Grasping the Inconspicuous [15.274311118568715]
本研究では,RGB画像からの深層学習による6次元ポーズ推定について検討した。
透明物体を把握するためのRGB画像空間の有効性を実験により実証した。
論文 参考訳(メタデータ) (2022-11-15T14:45:50Z) - RGB-Only Reconstruction of Tabletop Scenes for Collision-Free
Manipulator Control [71.51781695764872]
世界のRGBビューのみを用いたロボットマニピュレータの無衝突制御システムを提案する。
テーブルトップシーンの知覚入力は、ロボットエンドエフェクタにハンドヘルドまたは装着されたRGBカメラの複数の画像によって提供される。
シーンの3次元形状を再構成するために、NeRFのようなプロセスが使用され、そこからユークリッド完全符号距離関数(ESDF)が計算される。
次に、モデル予測制御アルゴリズムを用いてマニピュレータを制御し、ESDFの障害物を避けながら所望のポーズに達する。
論文 参考訳(メタデータ) (2022-10-21T01:45:08Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Real-time RGBD-based Extended Body Pose Estimation [57.61868412206493]
3DヒトポーズのリアルタイムRGBDに基づく推定システムを提案する。
パラメトリック3次元変形可能なヒューマンメッシュモデル(SMPL-X)を表現として使用する。
身体のポーズと表情パラメータの推定子を訓練する。
論文 参考訳(メタデータ) (2021-03-05T13:37:50Z) - RGB Matters: Learning 7-DoF Grasp Poses on Monocular RGBD Images [42.68340286459079]
一般的な対象把握はロボティクスの分野では重要だが未解決の問題である。
RGBD-Graspは、7-DoFグリップ検出を2つのサブタスクに分離することでこの問題を解決するパイプラインである。
GraspNet-1Billionデータセットで最新の結果が得られます。
論文 参考訳(メタデータ) (2021-03-03T05:12:20Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。