論文の概要: TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation
- arxiv url: http://arxiv.org/abs/2307.12400v1
- Date: Sun, 23 Jul 2023 18:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 16:22:01.512510
- Title: TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation
- Title(参考訳): TransNet:カテゴリーレベルポーズ推定による透明オブジェクト操作
- Authors: Huijie Zhang, Anthony Opipari, Xiaotong Chen, Jiyue Zhu, Zeren Yu,
Odest Chadwicke Jenkins
- Abstract要約: 局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
- 参考スコア(独自算出の注目度): 6.844391823478345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparent objects present multiple distinct challenges to visual perception
systems. First, their lack of distinguishing visual features makes transparent
objects harder to detect and localize than opaque objects. Even humans find
certain transparent surfaces with little specular reflection or refraction,
like glass doors, difficult to perceive. A second challenge is that depth
sensors typically used for opaque object perception cannot obtain accurate
depth measurements on transparent surfaces due to their unique reflective
properties. Stemming from these challenges, we observe that transparent object
instances within the same category, such as cups, look more similar to each
other than to ordinary opaque objects of that same category. Given this
observation, the present paper explores the possibility of category-level
transparent object pose estimation rather than instance-level pose estimation.
We propose \textit{\textbf{TransNet}}, a two-stage pipeline that estimates
category-level transparent object pose using localized depth completion and
surface normal estimation. TransNet is evaluated in terms of pose estimation
accuracy on a large-scale transparent object dataset and compared to a
state-of-the-art category-level pose estimation approach. Results from this
comparison demonstrate that TransNet achieves improved pose estimation accuracy
on transparent objects. Moreover, we use TransNet to build an autonomous
transparent object manipulation system for robotic pick-and-place and pouring
tasks.
- Abstract(参考訳): 透明物体は視覚知覚システムに複数の異なる課題を示す。
まず、視覚的な特徴を区別できないため、透明なオブジェクトは不透明なオブジェクトよりも検出やローカライズが難しくなる。
人間でさえ、ガラスのドアのように鏡面の反射や屈折がほとんどなく、知覚が難しい透明な表面を見つける。
第二の課題は、通常不透明物体の知覚に使用される深度センサーは、そのユニークな反射特性のために透明表面の正確な深度測定を得ることができないことである。
これらの課題から、コップのような同じカテゴリ内の透明なオブジェクトインスタンスが、同じカテゴリの通常の不透明なオブジェクトよりも互いに似通っていることを観察した。
本稿では,この観察から,インスタンスレベルのポーズ推定ではなく,カテゴリレベルの透明なオブジェクトポーズ推定の可能性について検討する。
本研究では,局所的深さ補完と表面正規推定を用いてカテゴリレベルの透明物体ポーズを推定する2段階パイプラインである \textit{\textbf{transnet}} を提案する。
TransNetは、大規模透明オブジェクトデータセット上でのポーズ推定精度を評価し、最先端のカテゴリレベルのポーズ推定手法と比較する。
この比較の結果,transnetは透明物体のポーズ推定精度の向上を実現した。
さらに,TransNetを用いて,ロボットピック・アンド・プレイスと注ぐ作業のための自律的透明物体操作システムを構築する。
関連論文リスト
- Transparent Object Depth Completion [11.825680661429825]
理解と操作のための透明な物体の認識は、依然として大きな課題である。
深度マップに大きく依存する既存のロボットグリップ法は、その独特の視覚特性のために透明な物体には適さない。
本稿では,一視点RGB-Dに基づく深度推定と多視点深度推定の長所を組み合わせた,透明物体深度補完のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:38:06Z) - A New Dataset and a Distractor-Aware Architecture for Transparent Object
Tracking [34.08943612955157]
現代のトラッカーの性能は透明な物体に対して不透明な物体に比べて著しく低下する。
104,343枚の画像を含む2k以上のシーケンスからなる,最初の透明なオブジェクト追跡トレーニングデータセットであるTrans2kを提案する。
また,局所化精度と目標識別を個別のタスクとして扱うディストラプタ対応透明物体追跡器(DiTra)を提案する。
論文 参考訳(メタデータ) (2024-01-08T13:04:28Z) - StereoPose: Category-Level 6D Transparent Object Pose Estimation from
Stereo Images via Back-View NOCS [106.62225866064313]
本稿では,カテゴリレベルのオブジェクトポーズ推定のためのステレオ画像フレームワークであるStereoPoseを紹介する。
純粋なステレオ画像からロバストな推定を行うため、カテゴリレベルのポーズ推定をオブジェクトサイズ推定、初期ポーズ推定、ポーズ修正に分解するパイプラインを開発する。
画像コンテンツエイリアス化の問題に対処するために、透明なオブジェクトに対するバックビューNOCSマップを定義する。
バックビューNOCSは、コンテンツエイリアスによるネットワーク学習のあいまいさを低減し、透明オブジェクトの背面にある情報的手がかりを利用してより正確なポーズ推定を行うことを目的としている。
論文 参考訳(メタデータ) (2022-11-03T08:36:09Z) - MonoGraspNet: 6-DoF Grasping with a Single RGB Image [73.96707595661867]
6-DoFロボットの把握は長続きするが未解決の問題だ。
近年の手法では3次元ネットワークを用いて深度センサから幾何的把握表現を抽出している。
我々はMonoGraspNetと呼ばれるRGBのみの6-DoFグルーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-09-26T21:29:50Z) - TODE-Trans: Transparent Object Depth Estimation with Transformer [16.928131778902564]
トランスを用いた1つのRGB-D入力からの透明物体深度推定手法を提案する。
きめ細かい機能を強化するため、特徴融合モジュール(FFM)はコヒーレントな予測を支援するように設計されている。
論文 参考訳(メタデータ) (2022-09-18T03:04:01Z) - TransNet: Category-Level Transparent Object Pose Estimation [6.844391823478345]
視覚的特徴の区別の欠如により、透明な物体は不透明な物体よりも検出と位置決めが困難になる。
第二の課題は、通常不透明物体の知覚に使用される一般的な深度センサーが透明物体の正確な深度測定を得ることができないことである。
局所的な深度補完と表面正規推定を用いてカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインであるTransNetを提案する。
論文 参考訳(メタデータ) (2022-08-22T01:34:31Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - ClearPose: Large-scale Transparent Object Dataset and Benchmark [7.342978076186365]
我々はClearPoseという名前の大規模現実世界のRGB-Depth透明オブジェクトデータセットをコントリビュートし、セグメンテーション、シーンレベルの深さ補完、オブジェクト中心のポーズ推定タスクのベンチマークデータセットとして機能する。
ClearPoseデータセットには、実世界のRGB-Depthフレームに350万以上のラベルが付けられ、63の家庭用オブジェクトをカバーする4Mインスタンスアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-03-08T07:29:31Z) - TransCG: A Large-Scale Real-World Dataset for Transparent Object Depth
Completion and Grasping [46.6058840385155]
我々は、透明な物体深度を補完する大規模な実世界のデータセットをコントリビュートする。
データセットには、130の異なるシーンから57,715枚のRGB-D画像が含まれている。
本稿では,RGB画像と不正確な深度マップを入力とし,精細化された深度マップを出力するエンド・ツー・エンドの深度補完ネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T06:50:20Z) - Segmenting Transparent Objects in the Wild [98.80906604285163]
本研究は,手作業による注釈付き実シナリオの画像10,428枚からなるトランス10Kという,透明なオブジェクトセグメンテーションのための大規模データセットを提案する。
Trans10Kの有効性を評価するために,TransLabと呼ばれる新しい境界認識セグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T04:44:31Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。