論文の概要: Geometry Transfer for Stylizing Radiance Fields
- arxiv url: http://arxiv.org/abs/2402.00863v2
- Date: Fri, 2 Feb 2024 07:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-05 11:54:24.522260
- Title: Geometry Transfer for Stylizing Radiance Fields
- Title(参考訳): 放射場スタイライゼーションのための幾何移動
- Authors: Hyunyoung Jung, Seonghyeon Nam, Nikolaos Sarafianos, Sungjoo Yoo,
Alexander Sorkine-Hornung, Rakesh Ranjan
- Abstract要約: 幾何学的変形を利用した3次元トランスファー手法であるGeometry Transferを導入する。
実験の結果,幾何変換はより広範かつ表現力に富んだスタイリゼーションを可能にすることがわかった。
- 参考スコア(独自算出の注目度): 57.51812350062505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Shape and geometric patterns are essential in defining stylistic identity.
However, current 3D style transfer methods predominantly focus on transferring
colors and textures, often overlooking geometric aspects. In this paper, we
introduce Geometry Transfer, a novel method that leverages geometric
deformation for 3D style transfer. This technique employs depth maps to extract
a style guide, subsequently applied to stylize the geometry of radiance fields.
Moreover, we propose new techniques that utilize geometric cues from the 3D
scene, thereby enhancing aesthetic expressiveness and more accurately
reflecting intended styles. Our extensive experiments show that Geometry
Transfer enables a broader and more expressive range of stylizations, thereby
significantly expanding the scope of 3D style transfer.
- Abstract(参考訳): 形状と幾何学的パターンは、様式的アイデンティティを定義する上で不可欠である。
しかし、現在の3Dスタイルの転送方式は主に色やテクスチャの転送に重点を置いており、しばしば幾何学的側面を見下ろしている。
本稿では,幾何学的変形を利用した3次元トランスファー手法であるGeometry Transferを紹介する。
この手法は深度マップを用いてスタイルガイドを抽出し、その後、放射場の幾何学をスタイリングする。
さらに,3次元シーンからの幾何学的手がかりを活用し,美的表現力を高め,意図したスタイルをより正確に反映する新しい手法を提案する。
我々の広範な実験により、幾何変換はより広範かつより表現力のあるスタイル化を可能にし、3Dスタイル転送の範囲を大きく広げることを示す。
関連論文リスト
- PEGAsus: 3D Personalization of Geometry and Appearance [84.10611282310562]
PEGAsusは、幾何学と外観の両レベルで形状概念を学習することで、パーソナライズされた3次元形状を生成できる新しいフレームワークである。
我々は,3次元形状のパーソナライゼーションを,参照形状から再利用可能な,カテゴリに依存しない幾何学的特徴と外観的属性を抽出するものとして定式化する。
我々は、地域的な概念学習にアプローチを拡張し、文脈認識と文脈自由な損失を伴って柔軟な概念抽出を可能にします。
論文 参考訳(メタデータ) (2026-02-09T01:41:27Z) - DiffStyle3D: Consistent 3D Gaussian Stylization via Attention Optimization [22.652699040654046]
3Dスタイルの転送により、視覚的に表現可能な3Dコンテンツを作成することができる。
DiffStyle3Dを提案する。DiffStyle3Dは3DGSスタイル転送のための新しい拡散型パラダイムである。
DiffStyle3Dは最先端の手法より優れ、より高度なスタイリゼーション品質と視覚リアリズムを実現する。
論文 参考訳(メタデータ) (2026-01-27T15:41:11Z) - Thinking Like Van Gogh: Structure-Aware Style Transfer via Flow-Guided 3D Gaussian Splatting [21.972195024342597]
既存の3Dスタイルの転写法の多くは、幾何学を表面レベルのテクスチャ投影のための剛性基板として扱う。
本稿では,この原理をメッシュフリーで運用するフロー誘導幾何対流の枠組みを提案する。
筆者らの貢献は,(1)2次元芸術運動を3次元ガウス幾何学へ伝達する投影型メッシュフリーフロー誘導機構,(2)色最適化から幾何学的変形を分離する輝度分離戦略,(3)従来の画素レベルの指標ではなく,美的判断による芸術的真性を評価するVLM-as-a-Judge評価フレームワークである。
論文 参考訳(メタデータ) (2026-01-15T05:00:02Z) - Geometry in Style: 3D Stylization via Surface Normal Deformation [14.178630551656758]
我々は、アイデンティティ保存メッシュスタイリングの新しい手法であるGeometry in Styleを提案する。
既存の技術は、バンプマップのような過度に制限された変形を通じて、元の形状に固執する。
対照的に、三角形メッシュの変形を対象の正規ベクトルとして表現する。
論文 参考訳(メタデータ) (2025-03-29T22:40:25Z) - GAS-NeRF: Geometry-Aware Stylization of Dynamic Radiance Fields [46.11580764915792]
GAS-NeRFは動的放射場における関節外観と幾何学的スタイル化のための新しいアプローチである。
本手法では, 深度マップを用いて幾何学的詳細情報を抽出し, 放射場に転送し, その後, 外観伝達を行う。
論文 参考訳(メタデータ) (2025-03-11T14:37:06Z) - Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - Explorable Mesh Deformation Subspaces from Unstructured Generative
Models [53.23510438769862]
3次元形状の深い生成モデルは、しばしば潜在的な変動を探索するために使用できる連続的な潜伏空間を特徴付ける。
本研究では,手軽に探索可能な2次元探索空間から事前学習された生成モデルのサブ空間へのマッピングを構築することで,与えられたランドマーク形状の集合間のバリエーションを探索する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:53:57Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - NeRF-Art: Text-Driven Neural Radiance Fields Stylization [38.3724634394761]
簡単なテキストプロンプトで事前学習したNeRFモデルのスタイルを操作するテキスト誘導型NeRFスタイリング手法であるNeRF-Artを提案する。
本手法は, シングルビューのスタイリゼーション品質とクロスビューの整合性の両方に関して, 有効かつ堅牢であることを示す。
論文 参考訳(メタデータ) (2022-12-15T18:59:58Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。