論文の概要: Water Simulation and Rendering from a Still Photograph
- arxiv url: http://arxiv.org/abs/2210.02553v1
- Date: Wed, 5 Oct 2022 20:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:29:52.660451
- Title: Water Simulation and Rendering from a Still Photograph
- Title(参考訳): 静止写真からの水のシミュレーションとレンダリング
- Authors: Ryusuke Sugimoto, Mingming He, Jing Liao, Pedro V. Sander
- Abstract要約: 本研究では,静止画1枚からリアルな水のアニメーションをシミュレートし,レンダリングする手法を提案する。
我々のアプローチは、様々な自然のシーンに対して、ユーザの介入なしに現実的な結果を生み出す。
- 参考スコア(独自算出の注目度): 20.631819299595527
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose an approach to simulate and render realistic water animation from
a single still input photograph. We first segment the water surface, estimate
rendering parameters, and compute water reflection textures with a combination
of neural networks and traditional optimization techniques. Then we propose an
image-based screen space local reflection model to render the water surface
overlaid on the input image and generate real-time water animation. Our
approach creates realistic results with no user intervention for a wide variety
of natural scenes containing large bodies of water with different lighting and
water surface conditions. Since our method provides a 3D representation of the
water surface, it naturally enables direct editing of water parameters and also
supports interactive applications like adding synthetic objects to the scene.
- Abstract(参考訳): 本研究では,静止画1枚からリアルな水のアニメーションをシミュレートし,レンダリングする手法を提案する。
まず、水面を分割し、レンダリングパラメータを推定し、ニューラルネットワークと従来の最適化技術を組み合わせて、水反射テクスチャを計算する。
次に,入力画像上に水面をオーバーレイし,リアルタイムな水面アニメーションを生成する画像ベースの画面空間局所反射モデルを提案する。
提案手法は,照明や水面条件の異なる大きな水域を含む様々な自然環境に対して,ユーザの介入なしに現実的な結果を生み出す。
本手法は水面の3次元表現を提供するため,自然に水パラメータの直接編集が可能であり,シーンに合成オブジェクトを追加するようなインタラクティブなアプリケーションもサポートする。
関連論文リスト
- AquaFuse: Waterbody Fusion for Physics Guided View Synthesis of Underwater Scenes [6.535472265307327]
水中画像中の水体特性を合成する物理法であるAquaFuseについて紹介する。
AquaFused画像は94%以上の奥行き一貫性と90-95%の構造的類似性を保っていることがわかった。
論文 参考訳(メタデータ) (2024-11-02T03:20:06Z) - Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes [6.549998173302729]
本研究では,水中の物体と水媒体の両方を効果的に表現するハイブリッド3D表現手法であるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
論文 参考訳(メタデータ) (2024-10-31T22:24:56Z) - Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Simulating Fluids in Real-World Still Images [39.93838010016248]
本研究では,静止画像から現実の流体アニメーションに挑戦する。
本システムの鍵となるのは,映像分解から導かれる表面層表現である。
さらに, 動き推定の代替として, 2.5D$の流体計算バージョンである表面のみの流体シミュレーションを導入する。
論文 参考訳(メタデータ) (2022-04-24T18:47:15Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。