論文の概要: 3D Keypoint Estimation Using Implicit Representation Learning
- arxiv url: http://arxiv.org/abs/2306.11529v1
- Date: Tue, 20 Jun 2023 13:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 14:14:40.394848
- Title: 3D Keypoint Estimation Using Implicit Representation Learning
- Title(参考訳): 暗黙表現学習を用いた3次元キーポイント推定
- Authors: Xiangyu Zhu, Dong Du, Haibin Huang, Chongyang Ma, Xiaoguang Han
- Abstract要約: 本稿では,新しい暗黙的表現を用いた汎用オブジェクトの3次元キーポイント推定の課題に対処する。
再建作業における先進的な暗黙的表現の成功に触発され,キーポイントを表現するために暗黙的フィールドを使用するというアイデアを探求する。
具体的には、3次元キーポイントを表す球体を用いて、対応する符号付き距離場の学習を可能にする。
- 参考スコア(独自算出の注目度): 46.09594828635109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle the challenging problem of 3D keypoint estimation of
general objects using a novel implicit representation. Previous works have
demonstrated promising results for keypoint prediction through direct
coordinate regression or heatmap-based inference. However, these methods are
commonly studied for specific subjects, such as human bodies and faces, which
possess fixed keypoint structures. They also suffer in several practical
scenarios where explicit or complete geometry is not given, including images
and partial point clouds. Inspired by the recent success of advanced implicit
representation in reconstruction tasks, we explore the idea of using an
implicit field to represent keypoints. Specifically, our key idea is employing
spheres to represent 3D keypoints, thereby enabling the learnability of the
corresponding signed distance field. Explicit keypoints can be extracted
subsequently by our algorithm based on the Hough transform. Quantitative and
qualitative evaluations also show the superiority of our representation in
terms of prediction accuracy.
- Abstract(参考訳): 本稿では,新しい暗黙表現を用いた一般物体の3次元キーポイント推定の課題に挑戦する。
従来の研究は、直接座標回帰や熱マップに基づく推論によるキーポイント予測の有望な結果を示している。
しかし、これらの手法は特定のキーポイント構造を持つ人体や顔などの特定の対象に対して一般的に研究されている。
また、画像や部分点雲など、明示的あるいは完全な幾何学が与えられていないいくつかの実用的なシナリオに苦しむ。
再建作業における先進的な暗黙的表現の成功に触発され,キーポイントを表現するために暗黙的フィールドを使うという考えを探求する。
具体的には,球体を用いて3次元キーポイントを表現し,対応する符号付き距離場を学習可能とする。
Hough 変換に基づいて,提案アルゴリズムによりキーポイントを抽出することができる。
定量的および定性的な評価は、予測精度の観点から表現の優位性を示す。
関連論文リスト
- KGpose: Keypoint-Graph Driven End-to-End Multi-Object 6D Pose Estimation via Point-Wise Pose Voting [0.0]
KGposeは、複数のオブジェクトの6Dポーズ推定のためのエンドツーエンドフレームワークである。
我々のアプローチはキーポイントベースの手法とキーポイントグラフによる学習可能なポーズ回帰を組み合わせる。
論文 参考訳(メタデータ) (2024-07-12T01:06:00Z) - Back to 3D: Few-Shot 3D Keypoint Detection with Back-Projected 2D Features [64.39691149255717]
3次元形状のキーポイント検出には意味的および幾何学的認識が必要である。
我々はキーポイント候補最適化モジュールを用いて,その形状上のキーポイントの平均分布を一致させる。
結果として得られたアプローチは、KeyPointNetデータセットで数ショットのキーポイント検出のための新しい状態を実現する。
論文 参考訳(メタデータ) (2023-11-29T21:58:41Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - Unsupervised Learning of 3D Semantic Keypoints with Mutual
Reconstruction [11.164069907549756]
3Dセマンティックキーポイントは、3Dオブジェクト上のカテゴリレベルのセマンティック一貫性ポイントである。
点群から一貫した意味的キーポイントを明示的に生成するための教師なし手法を提案する。
我々の知る限り,提案手法は相互再構成の観点から初めて3次元意味的一貫したキーポイントを抽出するものである。
論文 参考訳(メタデータ) (2022-03-19T01:49:21Z) - Accurate Grid Keypoint Learning for Efficient Video Prediction [87.71109421608232]
キーポイントベースのビデオ予測手法は、トレーニングやデプロイメントにおいて、かなりの計算資源を消費することができる。
本稿では,長期的効率的な映像予測のための頑健で説明可能な中間キーポイント表現を目的とした,新しいグリッドキーポイント学習フレームワークを設計する。
提案手法は,計算資源の98%以上を節約しつつ,最先端のビデオ予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-28T05:04:30Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Bottom-Up Human Pose Estimation Via Disentangled Keypoint Regression [81.05772887221333]
従来のキーポイント検出およびグループ化フレームワークに劣る密度の高いキーポイント回帰フレームワークについて検討する。
我々は,dekr(disentangled keypoint regression)という,単純かつ効果的な手法を提案する。
提案手法はキーポイント検出法やグループ化法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-06T05:54:46Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - S3K: Self-Supervised Semantic Keypoints for Robotic Manipulation via
Multi-View Consistency [11.357804868755155]
視覚的表現として意味的な3Dキーポイントを提唱し,半教師あり学習目標を示す。
局所的なテクスチャベースのアプローチとは異なり、我々のモデルは広い領域からコンテキスト情報を統合する。
意味的キーポイントを特定することで、人間の理解可能な行動の高レベルなスクリプティングが可能になることを実証する。
論文 参考訳(メタデータ) (2020-09-30T14:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。