論文の概要: CHORD: Category-level Hand-held Object Reconstruction via Shape
Deformation
- arxiv url: http://arxiv.org/abs/2308.10574v1
- Date: Mon, 21 Aug 2023 09:14:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:19:40.993011
- Title: CHORD: Category-level Hand-held Object Reconstruction via Shape
Deformation
- Title(参考訳): CHORD:形状変形によるカテゴリーレベルのハンドヘルドオブジェクト再構成
- Authors: Kailin Li, Lixin Yang, Haoyu Zhen, Zenan Lin, Xinyu Zhan, Licheng
Zhong, Jian Xu, Kejian Wu, Cewu Lu
- Abstract要約: 日常生活では、人間は手を使って物体を操作する。
従来のアプローチでは、ハンドヘルドオブジェクトの正確な形状を再構築することは困難だった。
形状変形によるカテゴリーレベルのハンドヘルドオブジェクト再構成のための新しい手法CHORDを提案する。
- 参考スコア(独自算出の注目度): 40.58622555407404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In daily life, humans utilize hands to manipulate objects. Modeling the shape
of objects that are manipulated by the hand is essential for AI to comprehend
daily tasks and to learn manipulation skills. However, previous approaches have
encountered difficulties in reconstructing the precise shapes of hand-held
objects, primarily owing to a deficiency in prior shape knowledge and
inadequate data for training. As illustrated, given a particular type of tool,
such as a mug, despite its infinite variations in shape and appearance, humans
have a limited number of 'effective' modes and poses for its manipulation. This
can be attributed to the fact that humans have mastered the shape prior of the
'mug' category, and can quickly establish the corresponding relations between
different mug instances and the prior, such as where the rim and handle are
located. In light of this, we propose a new method, CHORD, for Category-level
Hand-held Object Reconstruction via shape Deformation. CHORD deforms a
categorical shape prior for reconstructing the intra-class objects. To ensure
accurate reconstruction, we empower CHORD with three types of awareness:
appearance, shape, and interacting pose. In addition, we have constructed a new
dataset, COMIC, of category-level hand-object interaction. COMIC contains a
rich array of object instances, materials, hand interactions, and viewing
directions. Extensive evaluation shows that CHORD outperforms state-of-the-art
approaches in both quantitative and qualitative measures. Code, model, and
datasets are available at https://kailinli.github.io/CHORD.
- Abstract(参考訳): 日常生活では、人間は手を使って物体を操作する。
手によって操作されるオブジェクトの形状をモデル化することは、AIが日々のタスクを理解し、操作スキルを学ぶために不可欠である。
しかし,従来の手持ち物体の正確な形状の再構築には,従来の形状知識の欠如と訓練用データ不足が主な原因となっている。
図に示すように、マグカップのような特定の種類の道具が、形状や外観が無限に変化するにもかかわらず、人間は限られた数の「効果的な」モードを持ち、操作のためにポーズを取る。
これは、人間が 'mug' カテゴリに先立つ形状を習得し、リムとハンドルの位置のような、異なるマグカップインスタンスと以前のものとの対応関係を迅速に確立したという事実に起因することができる。
そこで我々は,形状変形によるカテゴリーレベルのハンドヘルドオブジェクト再構成のための新しい手法CHORDを提案する。
CHORDはクラス内のオブジェクトを再構築する前にカテゴリ形状を変形する。
正確な再構築を実現するため,我々はCHORDに3種類の認識能力(外観,形状,相互作用するポーズ)を付与する。
さらに,カテゴリーレベルのハンドオブジェクトインタラクションのための新しいデータセットCOMICを構築した。
COMICには、オブジェクトインスタンス、材料、ハンドインタラクション、表示方向の豊富な配列が含まれている。
広範囲な評価により、CHORDは定量と定性の両方において最先端のアプローチより優れていることが示されている。
コード、モデル、データセットはhttps://kailinli.github.io/CHORD.comで入手できる。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - ShapeGraFormer: GraFormer-Based Network for Hand-Object Reconstruction from a Single Depth Map [11.874184782686532]
そこで本研究では, 現実的な3次元物体形状に対する最初のアプローチを提案し, 一つの深度マップから復元する。
我々のパイプラインは、入力されたボキセル化深度に1対1のマッピングを持つ、ボキセル化ハンドオブジェクト形状も予測する。
さらに、手動オブジェクトの相互作用に基づいて再構成された形状を洗練する別のGraFormerコンポーネントを追加する影響を示す。
論文 参考訳(メタデータ) (2023-10-18T09:05:57Z) - DTF-Net: Category-Level Pose Estimation and Shape Reconstruction via
Deformable Template Field [29.42222066097076]
RGB-Depth画像ペアから、オープンワールドシーンの6Dポーズの推定と3D形状の再構築は困難である。
本稿では,オブジェクトカテゴリの暗黙的ニューラルネットワークに基づくポーズ推定と形状再構成のための新しいフレームワークであるDTF-Netを提案する。
論文 参考訳(メタデータ) (2023-08-04T10:35:40Z) - Learning to Transfer In-Hand Manipulations Using a Greedy Shape
Curriculum [79.6027464700869]
本研究では, 動的シミュレーションにおける簡易物体の自然な, 頑健な手動操作が, 高品質なモーションキャプチャの例から学習可能であることを示す。
本稿では,ティーポット,バニー,ボトル,トレイン,ゾウなど,さまざまな対象に適用可能な,単純なグリージーなカリキュラム検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T17:08:19Z) - HMDO: Markerless Multi-view Hand Manipulation Capture with Deformable
Objects [8.711239906965893]
HMDOは、手と変形可能な物体の対話的な動きを記録する最初のマーカーレス変形可能な相互作用データセットである。
提案手法は,手と変形可能な物体の対話的動きを高品質に再現することができる。
論文 参考訳(メタデータ) (2023-01-18T16:55:15Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - Unsupervised Shape and Pose Disentanglement for 3D Meshes [49.431680543840706]
本研究では,非教師付き環境において,非教師付き形状とポーズ表現を学習するための,シンプルで効果的なアプローチを提案する。
自己整合性と相互整合性の制約を組み合わせて、登録メッシュからポーズと空間の形状を学ぶ。
ポーズ転送や形状検索などのタスクを通じて,学習した表現の有用性を示す。
論文 参考訳(メタデータ) (2020-07-22T11:00:27Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。