論文の概要: Neural Style Transfer for Computer Games
- arxiv url: http://arxiv.org/abs/2311.14617v1
- Date: Fri, 24 Nov 2023 17:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 14:21:32.068147
- Title: Neural Style Transfer for Computer Games
- Title(参考訳): コンピュータゲームにおけるニューラルスタイル転送
- Authors: Eleftherios Ioannou, Steve Maddock
- Abstract要約: 本稿では,3次元レンダリングパイプラインの一部として,深度認識型ニューラルスタイルトランスファーを注入する手法を提案する。
我々は,芸術的にスタイル化されたゲームシーンの時間的一貫した結果,最先端の画像およびビデオNST手法の性能を実証する。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Style Transfer (NST) research has been applied to images, videos, 3D
meshes and radiance fields, but its application to 3D computer games remains
relatively unexplored. Whilst image and video NST systems can be used as a
post-processing effect for a computer game, this results in undesired artefacts
and diminished post-processing effects. Here, we present an approach for
injecting depth-aware NST as part of the 3D rendering pipeline. Qualitative and
quantitative experiments are used to validate our in-game stylisation
framework. We demonstrate temporally consistent results of artistically
stylised game scenes, outperforming state-of-the-art image and video NST
methods.
- Abstract(参考訳): ニューラルスタイル転送(NST)の研究は、画像、ビデオ、3Dメッシュ、および放射場に応用されてきたが、3Dコンピュータゲームへの応用は、いまだに研究されていない。
画像とビデオのnstシステムはコンピュータゲームの後処理効果として使用できるが、これは望ましくないアーティファクトと後処理効果の低下をもたらす。
本稿では3次元レンダリングパイプラインの一部として深度認識NSTを注入する手法を提案する。
ゲーム内スタイリングフレームワークを検証するために,定性的かつ定量的な実験が用いられている。
我々は,芸術的スタイルのゲームシーンの時間的一貫した結果,最先端の画像およびビデオNST手法の性能を実証する。
関連論文リスト
- Artistic Neural Style Transfer Algorithms with Activation Smoothing [11.575546510899846]
本稿では,画像に基づくニューラルスタイル転送(NST)を再実装する。
また,NSTにおける活性化平滑化とResNetの利用についても検討する。
論文 参考訳(メタデータ) (2024-11-12T18:44:13Z) - Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches [50.51643519253066]
3Dコンテンツ生成は、ビデオゲーム、映画制作、バーチャルおよび拡張現実など、多くのコンピュータグラフィックスアプリケーションの中心にある。
本稿では,インタラクティブでプレイ可能な3Dゲームシーンを自動的に生成するための,新しいディープラーニングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-08T16:27:37Z) - ART3D: 3D Gaussian Splatting for Text-Guided Artistic Scenes Generation [18.699440994076003]
ART3Dは拡散モデルと3Dガウススプラッティング技術を組み合わせた新しいフレームワークである。
深度情報と初期芸術画像を活用することにより,点雲マップを生成する。
また、3Dシーンの整合性を高めるための奥行き整合性モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-17T03:19:36Z) - Neural 3D Strokes: Creating Stylized 3D Scenes with Vectorized 3D
Strokes [20.340259111585873]
ニューラル3Dストロークス(Neural 3D Strokes)は、多視点2D画像から任意の新しいビューで3Dシーンのスタイリング画像を生成する新しい技術である。
提案手法は,ベクトルストロークによる人間のアートワークのプログレッシブ・ペインティングの過程をシミュレートし,イメージ・ツー・ペインティング法からインスピレーションを得ている。
論文 参考訳(メタデータ) (2023-11-27T09:02:21Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Realistic Image Synthesis with Configurable 3D Scene Layouts [59.872657806747576]
本稿では,3次元シーンレイアウトに基づくリアルな画像合成手法を提案する。
提案手法では, セマンティッククラスラベルを入力として3Dシーンを抽出し, 3Dシーンの描画ネットワークを訓練する。
訓練された絵画ネットワークにより、入力された3Dシーンのリアルな外観の画像を描画し、操作することができる。
論文 参考訳(メタデータ) (2021-08-23T09:44:56Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。