論文の概要: Wild2Avatar: Rendering Humans Behind Occlusions
- arxiv url: http://arxiv.org/abs/2401.00431v1
- Date: Sun, 31 Dec 2023 09:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:34:24.894435
- Title: Wild2Avatar: Rendering Humans Behind Occlusions
- Title(参考訳): Wild2Avatar:人間を隠蔽する
- Authors: Tiange Xiang, Adam Sun, Scott Delp, Kazuki Kozuka, Li Fei-Fei, Ehsan
Adeli
- Abstract要約: 私たちはWild2Avatarを紹介します。
この研究で、我々はWild2Avatarを紹介します。
- 参考スコア(独自算出の注目度): 18.869570134874365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rendering the visual appearance of moving humans from occluded monocular
videos is a challenging task. Most existing research renders 3D humans under
ideal conditions, requiring a clear and unobstructed scene. Those methods
cannot be used to render humans in real-world scenes where obstacles may block
the camera's view and lead to partial occlusions. In this work, we present
Wild2Avatar, a neural rendering approach catered for occluded in-the-wild
monocular videos. We propose occlusion-aware scene parameterization for
decoupling the scene into three parts - occlusion, human, and background.
Additionally, extensive objective functions are designed to help enforce the
decoupling of the human from both the occlusion and the background and to
ensure the completeness of the human model. We verify the effectiveness of our
approach with experiments on in-the-wild videos.
- Abstract(参考訳): 人間の視覚的な外観をモノクロビデオからレンダリングするのは、難しい作業だ。
既存の研究のほとんどは、理想の条件下で3dの人間を描いている。
これらの手法は、障害物がカメラの視界を遮り、部分閉塞に繋がる現実世界のシーンで人間を映し出すのに使用できない。
この研究で、我々はWild2Avatarを紹介します。
そこで我々は,シーンを3つの部分 – 隠蔽,人間,背景 – に分離するシーンパラメータ化を提案する。
さらに、広範囲な目的関数は、人間の排他性と背景の両方からの切り離しを強制し、人間のモデルの完全性を確保するために設計されている。
In-the-wild video 実験により,本手法の有効性を検証する。
関連論文リスト
- WonderHuman: Hallucinating Unseen Parts in Dynamic 3D Human Reconstruction [51.22641018932625]
我々はWonderHumanをモノクラービデオから再構成し、高忠実なノベルビューの合成を行う。
提案手法は,与えられたモノクロ映像からフォトリアリスティックなレンダリングを生成する場合のSOTA性能を実現する。
論文 参考訳(メタデータ) (2025-02-03T04:43:41Z) - Rendering Humans from Object-Occluded Monocular Videos [32.67336188239284]
モノクロビデオから人間を動かすことの3D理解とレンダリングは、難しい課題だ。
既存の方法は2つの理由からそのような欠陥に対処できない。
OccNeRF(OccNeRF, OccNeRF, OccNeRF, OccNeRF, OccNeRF, OccNeRF, OccNeRF)について述べる。
論文 参考訳(メタデータ) (2023-08-08T23:12:33Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - Vid2Avatar: 3D Avatar Reconstruction from Videos in the Wild via
Self-supervised Scene Decomposition [40.46674919612935]
Vid2Avatarは、モノクラー・イン・ザ・ワイルドビデオから人間のアバターを学習する手法である。
提案手法は,大規模な人間のスキャンデータから抽出した基礎的監督や先行データを必要としない。
シーンの人間と背景の両方を共同でモデル化することで、シーンの分解と表面の再構築を3Dで直接行う。
論文 参考訳(メタデータ) (2023-02-22T18:59:17Z) - MoCapDeform: Monocular 3D Human Motion Capture in Deformable Scenes [133.3300573151597]
MoCapDeformは、モノラルな3Dモーションキャプチャのための新しいフレームワークだ。
これは、3Dシーンの非剛体変形を明示的にモデル化した最初のものである。
複数のデータセット上で競合する手法よりも精度が高い。
論文 参考訳(メタデータ) (2022-08-17T17:59:54Z) - HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular
Video [44.58519508310171]
我々は、人間の複雑な身体の動きを観察するモノクラービデオで動作する、自由視点レンダリング手法、HumanNeRFを紹介した。
提案手法は,任意のフレームで動画をパージングし,任意のカメラ視点から被写体をレンダリングする。
論文 参考訳(メタデータ) (2022-01-11T18:51:21Z) - Recognizing Scenes from Novel Viewpoints [99.90914180489456]
人間は、少数の2Dビューから3Dのシーンを知覚することができる。AIエージェントは、少数の画像しか持たない任意の視点からシーンを認識することで、シーンとそのオブジェクトと効率的に対話することができる。
本稿では,新しいシーンのいくつかのRGB画像を入力として取り込んで,そのシーンを意味カテゴリーに分類することで,新たな視点から認識するモデルを提案する。
論文 参考訳(メタデータ) (2021-12-02T18:59:40Z) - 4D Human Body Capture from Egocentric Video via 3D Scene Grounding [38.3169520384642]
本稿では,モノクラーエゴセントリックビデオから2人称3D人体メッシュの時系列を再構築する新しい課題を紹介する。
エゴセントリックなビデオのユニークな視点と迅速なカメラの動きは、人間の身体を捉えるための技術的な障壁を増す。
論文 参考訳(メタデータ) (2020-11-26T15:17:16Z) - Perceiving 3D Human-Object Spatial Arrangements from a Single Image in
the Wild [96.08358373137438]
本研究では,世界規模で一貫した3Dシーンにおいて,人間や物体の空間的配置や形状を推定する手法を提案する。
本手法は,シーンレベルやオブジェクトレベルの3D監視を必要とせず,データセット上で動作させる。
論文 参考訳(メタデータ) (2020-07-30T17:59:50Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。