論文の概要: Grasping the Inconspicuous
- arxiv url: http://arxiv.org/abs/2211.08182v1
- Date: Tue, 15 Nov 2022 14:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:47:48.739976
- Title: Grasping the Inconspicuous
- Title(参考訳): 不明瞭な草刈り
- Authors: Hrishikesh Gupta, Stefan Thalhammer, Markus Leitner, Markus Vincze
- Abstract要約: 本研究では,RGB画像からの深層学習による6次元ポーズ推定について検討した。
透明物体を把握するためのRGB画像空間の有効性を実験により実証した。
- 参考スコア(独自算出の注目度): 15.274311118568715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparent objects are common in day-to-day life and hence find many
applications that require robot grasping. Many solutions toward object grasping
exist for non-transparent objects. However, due to the unique visual properties
of transparent objects, standard 3D sensors produce noisy or distorted
measurements. Modern approaches tackle this problem by either refining the
noisy depth measurements or using some intermediate representation of the
depth. Towards this, we study deep learning 6D pose estimation from RGB images
only for transparent object grasping. To train and test the suitability of
RGB-based object pose estimation, we construct a dataset of RGB-only images
with 6D pose annotations. The experiments demonstrate the effectiveness of RGB
image space for grasping transparent objects.
- Abstract(参考訳): 透明な物体は日々の生活で一般的であり、ロボットの把握を必要とする多くの応用を見出す。
オブジェクトの把握に対する多くの解は、非透明なオブジェクトに対して存在する。
しかし、透明な物体の独特の視覚特性のため、標準の3Dセンサーはノイズや歪みを測定する。
現代のアプローチでは、ノイズの深さ測定を洗練するか、あるいは深さの中間表現を使用することでこの問題に対処している。
そこで本研究では,RGB画像からの深層学習による6次元ポーズ推定について検討した。
RGBベースのオブジェクトポーズ推定の適合性を訓練し、テストするために、6Dポーズアノテーションを用いたRGBのみの画像データセットを構築した。
実験は透明物体の把握におけるrgb画像空間の有効性を示す。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - ASGrasp: Generalizable Transparent Object Reconstruction and Grasping from RGB-D Active Stereo Camera [9.212504138203222]
RGB-Dアクティブステレオカメラを用いた6自由度グリップ検出ネットワークASGraspを提案する。
本システムでは, 透明物体形状再構成において, 生のIRおよびRGB画像を直接利用できることで, 自己を識別する。
実験により、ASGraspは、一般化可能な透明物体把握において90%以上の成功率を達成できることが示された。
論文 参考訳(メタデータ) (2024-05-09T09:44:51Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - MVTrans: Multi-View Perception of Transparent Objects [29.851395075937255]
我々は、RGB-Dセンサから信頼できない深度マップを除外し、ステレオ法を拡張した。
提案手法であるMVTransは,複数の知覚能力を持つエンドツーエンドのマルチビューアーキテクチャである。
我々は、新しい手続き型フォトリアリスティックデータセット生成パイプラインを構築し、大規模透明なオブジェクト検出データセットを作成する。
論文 参考訳(メタデータ) (2023-02-22T22:45:28Z) - PoET: Pose Estimation Transformer for Single-View, Multi-Object 6D Pose
Estimation [6.860183454947986]
本稿では、RGB画像を入力とし、画像内の各オブジェクトに対する6Dポーズを予測するトランスフォーマーベースのアプローチを提案する。
画像のほかに、深度マップや3Dオブジェクトモデルなどの追加情報も不要です。
挑戦的なYCB-Vデータセットに対するRGBのみのアプローチの最先端結果を得る。
論文 参考訳(メタデータ) (2022-11-25T14:07:14Z) - MonoGraspNet: 6-DoF Grasping with a Single RGB Image [73.96707595661867]
6-DoFロボットの把握は長続きするが未解決の問題だ。
近年の手法では3次元ネットワークを用いて深度センサから幾何的把握表現を抽出している。
我々はMonoGraspNetと呼ばれるRGBのみの6-DoFグルーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-09-26T21:29:50Z) - ClearPose: Large-scale Transparent Object Dataset and Benchmark [7.342978076186365]
我々はClearPoseという名前の大規模現実世界のRGB-Depth透明オブジェクトデータセットをコントリビュートし、セグメンテーション、シーンレベルの深さ補完、オブジェクト中心のポーズ推定タスクのベンチマークデータセットとして機能する。
ClearPoseデータセットには、実世界のRGB-Depthフレームに350万以上のラベルが付けられ、63の家庭用オブジェクトをカバーする4Mインスタンスアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-03-08T07:29:31Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - RGB-D Local Implicit Function for Depth Completion of Transparent
Objects [43.238923881620494]
ロボット工学における認識方法の大部分は、RGB-Dカメラが提供する深度情報を必要とする。
標準的な3Dセンサーは、屈折と光の吸収により透明な物体の深さを捉えられない。
ノイズの多いRGB-D入力を考慮し,欠損深度を完備できる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T17:00:04Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。