論文の概要: CoARF: Controllable 3D Artistic Style Transfer for Radiance Fields
- arxiv url: http://arxiv.org/abs/2404.14967v1
- Date: Tue, 23 Apr 2024 12:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:11:34.418961
- Title: CoARF: Controllable 3D Artistic Style Transfer for Radiance Fields
- Title(参考訳): CoARF:ラジアンスフィールドのための制御可能な3Dアートスタイル転送
- Authors: Deheng Zhang, Clara Fernandez-Labrador, Christopher Schroers,
- Abstract要約: 本稿では,制御可能な3Dシーンスタイリングのための新しいアルゴリズムであるCoARFを紹介する。
CoARFは、ユーザが指定したスタイル転送の制御性と、より正確な特徴マッチングを備えた優れたスタイル転送品質を提供する。
- 参考スコア(独自算出の注目度): 7.651502365257349
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Creating artistic 3D scenes can be time-consuming and requires specialized knowledge. To address this, recent works such as ARF, use a radiance field-based approach with style constraints to generate 3D scenes that resemble a style image provided by the user. However, these methods lack fine-grained control over the resulting scenes. In this paper, we introduce Controllable Artistic Radiance Fields (CoARF), a novel algorithm for controllable 3D scene stylization. CoARF enables style transfer for specified objects, compositional 3D style transfer and semantic-aware style transfer. We achieve controllability using segmentation masks with different label-dependent loss functions. We also propose a semantic-aware nearest neighbor matching algorithm to improve the style transfer quality. Our extensive experiments demonstrate that CoARF provides user-specified controllability of style transfer and superior style transfer quality with more precise feature matching.
- Abstract(参考訳): 芸術的な3Dシーンを作るには時間がかかるし、専門的な知識が必要だ。
これを解決するために、ARFのような最近の作品では、ラディアンス場に基づくスタイル制約によるアプローチを使用して、ユーザが提供したスタイル画像に似た3Dシーンを生成する。
しかし、これらの手法は結果のシーンをきめ細かな制御を欠いている。
本稿では,制御可能な3次元シーンスタイリングのための新しいアルゴリズムであるCoARFを紹介する。
CoARFは、指定されたオブジェクトのスタイル転送、コンポジション3Dスタイル転送、セマンティックアウェアスタイル転送を可能にする。
ラベル依存損失関数の異なるセグメンテーションマスクを用いて制御性を実現する。
また,スタイル伝達品質を向上させるために,セマンティック・アウェアの近接マッチングアルゴリズムを提案する。
広範にわたる実験により,CoARFは,より正確な特徴マッチングにより,スタイル転送のユーザ指定制御性と優れたスタイル転送品質を提供することを示した。
関連論文リスト
- StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - ConRF: Zero-shot Stylization of 3D Scenes with Conditioned Radiation
Fields [26.833265073162696]
ゼロショットスタイリングの新しい手法であるConRFを紹介する。
我々は、CLIP特徴空間を事前訓練されたVGGネットワークのスタイル空間にマッピングする変換プロセスを採用する。
また,局所的なスタイル転送を行うために3次元ボリューム表現を用いる。
論文 参考訳(メタデータ) (2024-02-02T23:12:16Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - ARF-Plus: Controlling Perceptual Factors in Artistic Radiance Fields for
3D Scene Stylization [11.841897748330302]
レイディアンス・フィールド・スタイル・トランスファー(Radiance Field style transfer)は、3Dシーン・スタイル化の手段として最近人気を博した新興分野である。
我々は、放射場スタイルの伝達における研究のギャップ、十分な知覚制御能力の欠如について強調する。
ARF-Plusは、知覚因子の管理可能な制御を提供する3Dニューラルスタイルのトランスファーフレームワークである。
論文 参考訳(メタデータ) (2023-08-23T22:22:20Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions [11.153966202832933]
屋内シーンのメッシュ再構成にスタイル転送を適用する。
これにより、お気に入りのアーティストのスタイルで描かれた3D環境を体験するといったVRアプリケーションが可能になる。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。