論文の概要: A Tool for the Procedural Generation of Shaders using Interactive
Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2312.17587v1
- Date: Fri, 29 Dec 2023 12:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 09:47:57.050463
- Title: A Tool for the Procedural Generation of Shaders using Interactive
Evolutionary Algorithms
- Title(参考訳): 対話型進化アルゴリズムを用いたシェーダの手続き生成ツール
- Authors: Elio Sasso, Daniele Loiacono, Pier Luca Lanzi
- Abstract要約: 本稿では,Unityエディタと統合された対話型進化計算を用いてシェーダの設計空間を探索するフレームワークを提案する。
我々のフレームワークは、現在のシェーダーのグラフ表現を染色体としてエンコードし、シェーダー個体群の進化を誘導する。
- 参考スコア(独自算出の注目度): 5.985204759362746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a tool for exploring the design space of shaders using an
interactive evolutionary algorithm integrated with the Unity editor, a
well-known commercial tool for video game development. Our framework leverages
the underlying graph-based representation of recent shader editors and
interactive evolution to allow designers to explore several visual options
starting from an existing shader. Our framework encodes the graph
representation of a current shader as a chromosome used to seed the evolution
of a shader population. It applies graph-based recombination and mutation with
a set of heuristics to create feasible shaders. The framework is an extension
of the Unity editor; thus, designers with little knowledge of evolutionary
computation (and shader programming) can interact with the underlying
evolutionary engine using the same visual interface used for working on game
scenes.
- Abstract(参考訳): 本稿では,ゲーム開発のための商用ツールUnityエディタと統合されたインタラクティブな進化的アルゴリズムを用いて,シェーダの設計空間を探索するツールを提案する。
我々のフレームワークは、最近のシェーダエディタの基盤となるグラフベースの表現とインタラクティブな進化を活用し、デザイナが既存のシェーダからいくつかのビジュアルオプションを探索できるようにする。
我々のフレームワークは、現在のシェーダーのグラフ表現を染色体としてエンコードし、シェーダー個体群の進化を誘導する。
グラフベースの組換えと突然変異をヒューリスティックに応用し、実現可能なシェーダーを作成する。
このフレームワークはUnityエディタの拡張であり、進化計算(およびシェーダープログラミング)の知識がほとんどないデザイナは、ゲームシーンの作業に使用するのと同じビジュアルインターフェースを使用して、基盤となる進化エンジンと対話することができる。
関連論文リスト
- Blendify -- Python rendering framework for Blender [31.334130573156937]
BlendifyはPythonベースのフレームワークで、シームレスにBlenderと統合できる。
オブジェクト生成を自動化し、色とマテリアルリンクを扱い、シャドーキャッチャーオブジェクトのような機能を実装する。
論文 参考訳(メタデータ) (2024-10-23T13:29:02Z) - Interactive Rendering of Relightable and Animatable Gaussian Avatars [37.73483372890271]
本稿では,多視点映像や単眼アバター映像から身体材料と照明を分離する簡便で効率的な方法を提案する。
提案手法は,合成データと実データの両方で高速に高品質な結果が得られる。
論文 参考訳(メタデータ) (2024-07-15T13:25:07Z) - BlenderAlchemy: Editing 3D Graphics with Vision-Language Models [4.852796482609347]
ビジョンベースの編集生成器と状態評価器が協力して、目標を達成するための正しいアクションのシーケンスを見つける。
人間のデザインプロセスにおける視覚的想像力の役割に触発されて、視覚言語モデルの視覚的推論能力を「想像された」参照画像で補う。
論文 参考訳(メタデータ) (2024-04-26T19:37:13Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - MUNCH: Modelling Unique 'N Controllable Heads [4.574373524692042]
本稿では、品質、多様性、制御、リアリズムと説明可能なネットワーク設計を提供する手法を提案する。
Render Map Generatorは、Albedo、Glossiness、Specular、Normalsなど、多機能で高忠実な物理ベースのレンダリングマップを合成することを学ぶ。
出力のきめ細かい制御を好むアーティストに対しては、生成した地図のセマンティックな色制御を可能にする新しいカラートランスフォーマーモデルを導入する。
論文 参考訳(メタデータ) (2023-10-04T11:44:20Z) - UVA: Towards Unified Volumetric Avatar for View Synthesis, Pose
rendering, Geometry and Texture Editing [83.0396740127043]
テクスチャとテクスチャの両方を局所的に編集できるtextbfUnified textbfVolumetric textbfAvatar (textbfUVA) という新しいアプローチを提案する。
UVAは、各観測点をスキン運動場を用いて標準空間に変換し、別々の神経場における幾何学とテクスチャを表現する。
複数の人体アバターの実験により、UVAが新しいビュー合成と新しいポーズレンダリングを実現していることが示された。
論文 参考訳(メタデータ) (2023-04-14T07:39:49Z) - Novel View Synthesis of Humans using Differentiable Rendering [50.57718384229912]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2023-03-28T10:48:33Z) - PaletteNeRF: Palette-based Appearance Editing of Neural Radiance Fields [60.66412075837952]
本稿では,3次元色分解に基づくニューラルラジアンスフィールド(NeRF)の出現編集手法であるPaletteNeRFを提案する。
提案手法は,各3次元点の出現を,パレットベースによる線形結合に分解する。
我々は、セマンティック・アウェアな外観編集のためのセマンティック機能を圧縮したフレームワークを拡張した。
論文 参考訳(メタデータ) (2022-12-21T00:20:01Z) - Neural Assets: Volumetric Object Capture and Rendering for Interactive
Environments [8.258451067861932]
本研究では,現実の物体を日常の環境に忠実かつ迅速に捕獲する手法を提案する。
我々は、新しい神経表現を用いて、透明な物体部品などの効果を再構築し、物体の外観を保ちます。
これにより、提案されたニューラルネットワークアセットを既存のメッシュ環境やオブジェクトとシームレスに統合することが可能になる。
論文 参考訳(メタデータ) (2022-12-12T18:55:03Z) - IRISformer: Dense Vision Transformers for Single-Image Inverse Rendering
in Indoor Scenes [99.76677232870192]
我々は、高密度な視覚変換器であるIRISformerが、逆レンダリングに必要なシングルタスクとマルチタスクの推論の両方で優れていることを示す。
具体的には,屋内シーンの単一画像から深度,正規度,空間変化アルベド,粗さ,照明を同時に推定するトランスフォーマーアーキテクチャを提案する。
ベンチマークデータセットを用いた評価では、上記の各タスクについて最先端の結果が示され、オブジェクト挿入や物質編集などの応用を、制約のない1つの実画像で実現する。
論文 参考訳(メタデータ) (2022-06-16T19:50:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。