論文の概要: RGB-D Local Implicit Function for Depth Completion of Transparent
Objects
- arxiv url: http://arxiv.org/abs/2104.00622v1
- Date: Thu, 1 Apr 2021 17:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 20:05:27.099607
- Title: RGB-D Local Implicit Function for Depth Completion of Transparent
Objects
- Title(参考訳): 透明物体の深さ補完のためのRGB-D局所インシシシット関数
- Authors: Luyang Zhu, Arsalan Mousavian, Yu Xiang, Hammad Mazhar, Jozef van
Eenbergen, Shoubhik Debnath, Dieter Fox
- Abstract要約: ロボット工学における認識方法の大部分は、RGB-Dカメラが提供する深度情報を必要とする。
標準的な3Dセンサーは、屈折と光の吸収により透明な物体の深さを捉えられない。
ノイズの多いRGB-D入力を考慮し,欠損深度を完備できる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.238923881620494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Majority of the perception methods in robotics require depth information
provided by RGB-D cameras. However, standard 3D sensors fail to capture depth
of transparent objects due to refraction and absorption of light. In this
paper, we introduce a new approach for depth completion of transparent objects
from a single RGB-D image. Key to our approach is a local implicit neural
representation built on ray-voxel pairs that allows our method to generalize to
unseen objects and achieve fast inference speed. Based on this representation,
we present a novel framework that can complete missing depth given noisy RGB-D
input. We further improve the depth estimation iteratively using a
self-correcting refinement model. To train the whole pipeline, we build a large
scale synthetic dataset with transparent objects. Experiments demonstrate that
our method performs significantly better than the current state-of-the-art
methods on both synthetic and real world data. In addition, our approach
improves the inference speed by a factor of 20 compared to the previous best
method, ClearGrasp. Code and dataset will be released at
https://research.nvidia.com/publication/2021-03_RGB-D-Local-Implicit.
- Abstract(参考訳): ロボット工学における知覚法の大部分は、RGB-Dカメラによって提供される深度情報を必要とする。
しかし、標準的な3Dセンサーは、屈折や光の吸収によって透明な物体の深さを捉えられない。
本稿では,単一のrgb-d画像から透明物体の奥行き補完を行う新しい手法を提案する。
このアプローチの鍵となるのは、ray-voxelペア上に構築された、局所的な暗黙的なニューラルネットワーク表現です。
この表現に基づいて、ノイズの多いRGB-D入力を伴って、欠損深さを完了できる新しいフレームワークを提案する。
さらに, 自己補正改良モデルを用いて, 深さ推定を反復的に改善する。
パイプライン全体をトレーニングするために、透明なオブジェクトを持つ大規模な合成データセットを構築します。
実験により,本手法は合成データと実データの両方において,現在の最先端手法よりも有意に優れた性能を示す。
さらに,提案手法は,従来のベストメソッドであるClearGraspと比較して,推論速度を20倍に向上させる。
コードとデータセットはhttps://research.nvidia.com/publication/2021-03_RGB-D-Local-Implicitで公開される。
関連論文リスト
- ASGrasp: Generalizable Transparent Object Reconstruction and Grasping from RGB-D Active Stereo Camera [9.212504138203222]
RGB-Dアクティブステレオカメラを用いた6自由度グリップ検出ネットワークASGraspを提案する。
本システムでは, 透明物体形状再構成において, 生のIRおよびRGB画像を直接利用できることで, 自己を識別する。
実験により、ASGraspは、一般化可能な透明物体把握において90%以上の成功率を達成できることが示された。
論文 参考訳(メタデータ) (2024-05-09T09:44:51Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - MVTrans: Multi-View Perception of Transparent Objects [29.851395075937255]
我々は、RGB-Dセンサから信頼できない深度マップを除外し、ステレオ法を拡張した。
提案手法であるMVTransは,複数の知覚能力を持つエンドツーエンドのマルチビューアーキテクチャである。
我々は、新しい手続き型フォトリアリスティックデータセット生成パイプラインを構築し、大規模透明なオブジェクト検出データセットを作成する。
論文 参考訳(メタデータ) (2023-02-22T22:45:28Z) - Grasping the Inconspicuous [15.274311118568715]
本研究では,RGB画像からの深層学習による6次元ポーズ推定について検討した。
透明物体を把握するためのRGB画像空間の有効性を実験により実証した。
論文 参考訳(メタデータ) (2022-11-15T14:45:50Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - TransCG: A Large-Scale Real-World Dataset for Transparent Object Depth
Completion and Grasping [46.6058840385155]
我々は、透明な物体深度を補完する大規模な実世界のデータセットをコントリビュートする。
データセットには、130の異なるシーンから57,715枚のRGB-D画像が含まれている。
本稿では,RGB画像と不正確な深度マップを入力とし,精細化された深度マップを出力するエンド・ツー・エンドの深度補完ネットワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T06:50:20Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。