論文の概要: StyleDEM: a Versatile Model for Authoring Terrains
- arxiv url: http://arxiv.org/abs/2304.09626v1
- Date: Wed, 19 Apr 2023 13:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:32:41.609045
- Title: StyleDEM: a Versatile Model for Authoring Terrains
- Title(参考訳): StyleDEM:テランのオーサリングのためのVersatile Model
- Authors: Simon Perche, Adrien Peytavie, Bedrich Benes, Eric Galin and Eric
Gu\'erin
- Abstract要約: StyleDEMは地形合成とオーサリングのための新しい生成逆ネットワーク手法である。
インタラクティブなブラシを使って作成できる機能を備えた地形を出力し、スタイル操作や超解像度といった追加ツールで拡張する。
- 参考スコア(独自算出の注目度): 12.803844032220796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many terrain modelling methods have been proposed for the past decades,
providing efficient and often interactive authoring tools. However, they
generally do not include any notion of style, which is a critical aspect for
designers in the entertainment industry. We introduce StyleDEM, a new
generative adversarial network method for terrain synthesis and authoring, with
a versatile toolbox of authoring methods with style. This method starts from an
input sketch or an existing terrain. It outputs a terrain with features that
can be authored using interactive brushes and enhanced with additional tools
such as style manipulation or super-resolution. The strength of our approach
resides in the versatility and interoperability of the toolbox.
- Abstract(参考訳): 過去数十年間、多くの地形モデリング手法が提案され、効率的でしばしばインタラクティブなオーサリングツールを提供している。
しかし、一般的にはスタイルの概念は含まず、エンターテイメント業界のデザイナーにとって重要な側面である。
本稿では,地形合成とオーサリングのための新たな生成的逆ネットワーク手法であるstyledemを紹介し,スタイルを用いたオーサリング手法の汎用ツールボックスを提案する。
この方法は入力スケッチや既存の地形から始まります。
インタラクティブなブラシを使って作成でき、スタイル操作や超解像度といった追加ツールで拡張できる機能を備えた地形を出力する。
私たちのアプローチの強みは、ツールボックスの汎用性と相互運用性にあります。
関連論文リスト
- Procedural terrain generation with style transfer [0.0]
本稿では,プロシージャ生成とニューラルスタイル転送を組み合わせた地形図作成手法を提案する。
このアルゴリズム生成とニューラルプロセッシングの融合は、多様なだけでなく、現実世界の風景の形態的特性と密接に整合した地形を作り出す可能性を秘めている。
論文 参考訳(メタデータ) (2024-01-28T14:22:27Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - MODIFY: Model-driven Face Stylization without Style Images [77.24793103549158]
既存の顔のスタイリング手法は、翻訳プロセス中に常にターゲット(スタイル)ドメインの存在を取得する。
そこで本研究では,MODel-drIven Face stYlization (MODIFY) と呼ばれる新たな手法を提案する。
複数の異なるデータセットに対する実験結果は、教師なし顔のスタイリングにおけるMODIFYの有効性を検証した。
論文 参考訳(メタデータ) (2023-03-17T08:35:17Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Deep Generative Framework for Interactive 3D Terrain Authoring and
Manipulation [4.202216894379241]
本稿では,VAEと生成条件GANモデルを組み合わせた新しいランドスケープオーサリングフレームワークを提案する。
我々のフレームワークは実世界の地形データセットから潜在空間を学習することで既存の手法の限界を克服しようとする例に基づく手法である。
我々はまた、ユーザが最小限の入力で多様な地形を生成できるインタラクティブツールを開発した。
論文 参考訳(メタデータ) (2022-01-07T08:58:01Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。