論文の概要: ePose: Let's Make EfficientPose More Generally Applicable
- arxiv url: http://arxiv.org/abs/2111.15114v1
- Date: Tue, 30 Nov 2021 04:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 03:25:19.399570
- Title: ePose: Let's Make EfficientPose More Generally Applicable
- Title(参考訳): ePose:EfficientPoseをより一般的に適用可能にしよう
- Authors: Austin Lally, Robert Bain, Mazen Alotaibi
- Abstract要約: EfficientPoseを改善するために、オブジェクトのサイズを推測する機能を提供しています。
私たちはLinemodデータセットと"Occlusion 1-class"と呼ばれる新しいサブセットを用いてePoseを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: EfficientPose is an impressive 3D object detection model. It has been
demonstrated to be quick, scalable, and accurate, especially when considering
that it uses only RGB inputs. In this paper we try to improve on EfficientPose
by giving it the ability to infer an object's size, and by simplifying both the
data collection and loss calculations. We evaluated ePose using the Linemod
dataset and a new subset of it called "Occlusion 1-class". We also outline our
current progress and thoughts about using ePose with the NuScenes and the 2017
KITTI 3D Object Detection datasets. The source code is available at
https://github.com/tbd-clip/EfficientPose.
- Abstract(参考訳): EfficientPoseは印象的な3Dオブジェクト検出モデルだ。
特にRGB入力のみを使用する場合、高速でスケーラブルで正確であることが示されている。
本稿では,オブジェクトのサイズを推測し,データ収集と損失計算の両方を簡単にすることで,効率を向上させることを試みる。
また,Linemodデータセットと,その新しいサブセットであるOcclusion 1-classを用いてePoseを評価した。
我々はまた、NuScenesと2017 KITTI 3D Object DetectionデータセットでePoseを使用することに関する現在の進捗状況と考えを概説する。
ソースコードはhttps://github.com/tbd-clip/ efficientposeで入手できる。
関連論文リスト
- MeshPose: Unifying DensePose and 3D Body Mesh reconstruction [13.159597153741604]
DensePoseとHuman Mesh Reconstructionに取り組むためにMeshPoseを導入する。
DensePoseは3Dメッシュ座標と画像のピクセル精度の相関を提供するが、3Dメッシュは提供しない。
我々のシステムはエンドツーエンドで訓練されており、DensePoseの精度を競う最初のHMR法である。
論文 参考訳(メタデータ) (2024-06-14T16:59:04Z) - GS-Pose: Generalizable Segmentation-based 6D Object Pose Estimation with 3D Gaussian Splatting [23.724077890247834]
GS-Poseは、新しいオブジェクトの6Dポーズをローカライズし、推定するためのフレームワークである。
オブジェクトを入力画像に配置し、最初の6Dポーズを推定し、レンダリング・アンド・コンペア法でポーズを精算することで順次動作する。
市販のツールチェーンや携帯電話などのコモディティハードウェアを使用して、データベースに追加される新しいオブジェクトをキャプチャすることができる。
論文 参考訳(メタデータ) (2024-03-15T21:06:14Z) - GigaPose: Fast and Robust Novel Object Pose Estimation via One Correspondence [64.77224422330737]
GigaPoseは、RGB画像におけるCADベースの新しいオブジェクトポーズ推定のための高速で堅牢で正確な方法である。
提案手法では,通常の3次元ではなく,2自由度空間でテンプレートをサンプリングする。
最先端の精度を実現し、既存の精錬手法とシームレスに統合することができる。
論文 参考訳(メタデータ) (2023-11-23T18:55:03Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - 3D Video Object Detection with Learnable Object-Centric Global
Optimization [65.68977894460222]
対応性に基づく最適化は3次元シーン再構成の基盤となるが、3次元ビデオオブジェクト検出では研究されていない。
オブジェクト中心の時間対応学習と特徴量付きオブジェクトバンドル調整を備えた、エンドツーエンドで最適化可能なオブジェクト検出器であるBA-Detを提案する。
論文 参考訳(メタデータ) (2023-03-27T17:39:39Z) - Depth-based 6DoF Object Pose Estimation using Swin Transformer [1.14219428942199]
オブジェクトの6Dポーズを正確に推定することは、ロボットの把握、自律運転、拡張現実など、多くのアプリケーションにとって不可欠である。
深度画像からの幾何情報のみを用いて正確な6次元ポーズ推定を行うSwinDePoseという新しいフレームワークを提案する。
LineModおよびOcclusion LineModデータセットの実験において、SwinDePoseは深度画像を用いた6Dオブジェクトのポーズ推定のための既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-03T18:25:07Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。