論文の概要: ClearPose: Large-scale Transparent Object Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2203.03890v1
- Date: Tue, 8 Mar 2022 07:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:48:07.999856
- Title: ClearPose: Large-scale Transparent Object Dataset and Benchmark
- Title(参考訳): ClearPose: 大規模透明オブジェクトデータセットとベンチマーク
- Authors: Xiaotong Chen, Huijie Zhang, Zeren Yu, Anthony Opipari, Odest
Chadwicke Jenkins
- Abstract要約: 我々はClearPoseという名前の大規模現実世界のRGB-Depth透明オブジェクトデータセットをコントリビュートし、セグメンテーション、シーンレベルの深さ補完、オブジェクト中心のポーズ推定タスクのベンチマークデータセットとして機能する。
ClearPoseデータセットには、実世界のRGB-Depthフレームに350万以上のラベルが付けられ、63の家庭用オブジェクトをカバーする4Mインスタンスアノテーションが含まれている。
- 参考スコア(独自算出の注目度): 7.342978076186365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparent objects are ubiquitous in household settings and pose distinct
challenges for visual sensing and perception systems. The optical properties of
transparent objects leave conventional 3D sensors alone unreliable for object
depth and pose estimation. These challenges are highlighted by the shortage of
large-scale RGB-Depth datasets focusing on transparent objects in real-world
settings. In this work, we contribute a large-scale real-world RGB-Depth
transparent object dataset named ClearPose to serve as a benchmark dataset for
segmentation, scene-level depth completion and object-centric pose estimation
tasks. The ClearPose dataset contains over 350K labeled real-world RGB-Depth
frames and 4M instance annotations covering 63 household objects. The dataset
includes object categories commonly used in daily life under various lighting
and occluding conditions as well as challenging test scenarios such as cases of
occlusion by opaque or translucent objects, non-planar orientations, presence
of liquids, etc. We benchmark several state-of-the-art depth completion and
object pose estimation deep neural networks on ClearPose.
- Abstract(参考訳): 透明な物体は家庭の環境においてユビキタスであり、視覚知覚と知覚システムに対して異なる課題を提起する。
透明物体の光学特性は、従来の3Dセンサだけでは物体の深度とポーズ推定に信頼性がない。
これらの課題は、現実世界の設定における透明なオブジェクトに焦点を当てた大規模なRGB-Depthデータセットの不足によって強調される。
本研究では,大規模な実世界のRGB-Depth透明オブジェクトデータセットであるClearPoseを,セグメンテーション,シーンレベルの深度補完,オブジェクト中心のポーズ推定タスクのベンチマークデータセットとして提供する。
ClearPoseデータセットには、実世界のRGB-Depthフレームに350万以上のラベルが付けられ、63の家庭用オブジェクトをカバーする4Mインスタンスアノテーションが含まれている。
このデータセットは、様々な照明や閉塞条件下で日常的に使用されるオブジェクトカテゴリと、不透明または半透明な物体による閉塞、非平面配向、液体の存在などの挑戦的なテストシナリオを含む。
われわれはClearPose上でいくつかの最先端の深度補完とオブジェクトポーズ推定のディープニューラルネットワークをベンチマークした。
関連論文リスト
- OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - TransNet: Transparent Object Manipulation Through Category-Level Pose
Estimation [6.844391823478345]
局所化深度補完と表面正規化を用いたカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインを提案する。
その結果,トランスネットは透明物体のポーズ推定精度の向上を実現していることがわかった。
われわれはTransNetを使って、ロボットピック・アンド・プレイスと注ぐタスクのための自律的透明なオブジェクト操作システムを構築している。
論文 参考訳(メタデータ) (2023-07-23T18:38:42Z) - TRansPose: Large-Scale Multispectral Dataset for Transparent Object [9.638817331619302]
TRansPoseは、ステレオRGB-D、熱赤外(TIR)画像、オブジェクトポーズを組み合わせた最初の大規模マルチスペクトルデータセットである。
データセットには、43の家庭用品、27のリサイクル可能なゴミ、29の化学実験室相当品、12の非透明物体を含む99の透明物体が含まれている。
このデータはFLIR A65熱赤外カメラ、2台のIntel RealSense L515 RGB-Dカメラ、そしてフランカ・エミカ・パンダのロボットマニピュレータを用いて取得された。
論文 参考訳(メタデータ) (2023-07-11T05:32:21Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Grasping the Inconspicuous [15.274311118568715]
本研究では,RGB画像からの深層学習による6次元ポーズ推定について検討した。
透明物体を把握するためのRGB画像空間の有効性を実験により実証した。
論文 参考訳(メタデータ) (2022-11-15T14:45:50Z) - StereoPose: Category-Level 6D Transparent Object Pose Estimation from
Stereo Images via Back-View NOCS [106.62225866064313]
本稿では,カテゴリレベルのオブジェクトポーズ推定のためのステレオ画像フレームワークであるStereoPoseを紹介する。
純粋なステレオ画像からロバストな推定を行うため、カテゴリレベルのポーズ推定をオブジェクトサイズ推定、初期ポーズ推定、ポーズ修正に分解するパイプラインを開発する。
画像コンテンツエイリアス化の問題に対処するために、透明なオブジェクトに対するバックビューNOCSマップを定義する。
バックビューNOCSは、コンテンツエイリアスによるネットワーク学習のあいまいさを低減し、透明オブジェクトの背面にある情報的手がかりを利用してより正確なポーズ推定を行うことを目的としている。
論文 参考訳(メタデータ) (2022-11-03T08:36:09Z) - MonoGraspNet: 6-DoF Grasping with a Single RGB Image [73.96707595661867]
6-DoFロボットの把握は長続きするが未解決の問題だ。
近年の手法では3次元ネットワークを用いて深度センサから幾何的把握表現を抽出している。
我々はMonoGraspNetと呼ばれるRGBのみの6-DoFグルーピングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-09-26T21:29:50Z) - TransNet: Category-Level Transparent Object Pose Estimation [6.844391823478345]
視覚的特徴の区別の欠如により、透明な物体は不透明な物体よりも検出と位置決めが困難になる。
第二の課題は、通常不透明物体の知覚に使用される一般的な深度センサーが透明物体の正確な深度測定を得ることができないことである。
局所的な深度補完と表面正規推定を用いてカテゴリレベルの透明なオブジェクトポーズを推定する2段階パイプラインであるTransNetを提案する。
論文 参考訳(メタデータ) (2022-08-22T01:34:31Z) - Seeing Glass: Joint Point Cloud and Depth Completion for Transparent
Objects [16.714074893209713]
TranspareNetはジョイントポイントクラウドとディープコンプリートコンプリート方式である。
透明な物体の深さを、散らかって複雑な場面で埋めることができます。
TranspareNetは、既存の最先端のディープコンプリートメソッドを複数のデータセットで上回っている。
論文 参考訳(メタデータ) (2021-09-30T21:09:09Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。