論文の概要: Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image
- arxiv url: http://arxiv.org/abs/2108.02708v1
- Date: Thu, 5 Aug 2021 16:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:37:59.565370
- Title: Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image
- Title(参考訳): オブジェクトウェイクアップ:1枚の画像からの3次元オブジェクト再構成、アニメーション、その場レンダリング
- Authors: Xinxin Zuo and Ji Yang and Sen Wang and Zhenbo Yu and Xinyu Li and
Bingbing Ni and Minglun Gong and Li Cheng
- Abstract要約: 椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
- 参考スコア(独自算出の注目度): 58.69732754597448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a picture of a chair, could we extract the 3-D shape of the chair,
animate its plausible articulations and motions, and render in-situ in its
original image space? The above question prompts us to devise an automated
approach to extract and manipulate articulated objects in single images.
Comparing with previous efforts on object manipulation, our work goes beyond
2-D manipulation and focuses on articulable objects, thus introduces greater
flexibility for possible object deformations. The pipeline of our approach
starts by reconstructing and refining a 3-D mesh representation of the object
of interest from an input image; its control joints are predicted by exploiting
the semantic part segmentation information; the obtained object 3-D mesh is
then rigged \& animated by non-rigid deformation, and rendered to perform
in-situ motions in its original image space. Quantitative evaluations are
carried out on 3-D reconstruction from single images, an established task that
is related to our pipeline, where our results surpass those of the SOTAs by a
noticeable margin. Extensive visual results also demonstrate the applicability
of our approach.
- Abstract(参考訳): 椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
上記の質問は、単一の画像からarticulated objectsを抽出および操作するための自動化アプローチを考案することを促します。
従来のオブジェクト操作と比較して、我々の研究は2次元操作を超越し、アーティキュラブルなオブジェクトに焦点を当てているため、オブジェクトの変形の柔軟性が向上する。
提案手法のパイプラインは,入力画像から関心対象の3Dメッシュ表現を再構成し,その制御関節を意味部分のセグメンテーション情報を利用して予測し,得られたオブジェクト3Dメッシュを非剛性変形によりアニメーション化し,元の画像空間でその場で動作するようにレンダリングする。
単一画像からの3次元再構成について定量的評価を行い,本研究の成果がsotaの3次元画像の精度を有意なマージンで上回った。
広汎な視覚的結果も我々のアプローチの適用性を示している。
関連論文リスト
- SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Style Agnostic 3D Reconstruction via Adversarial Style Transfer [23.304453155586312]
物体の3次元形状を画像から再構成することは、コンピュータビジョンにおける大きな課題である。
本研究では,背景を持つ画像から3次元物体を識別可能な学習法を提案する。
論文 参考訳(メタデータ) (2021-10-20T21:24:44Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。