論文の概要: Minecraft-ify: Minecraft Style Image Generation with Text-guided Image
Editing for In-Game Application
- arxiv url: http://arxiv.org/abs/2402.05448v2
- Date: Sun, 3 Mar 2024 10:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 00:17:25.377609
- Title: Minecraft-ify: Minecraft Style Image Generation with Text-guided Image
Editing for In-Game Application
- Title(参考訳): Minecraft-ify:ゲーム内アプリケーションのためのテキスト誘導画像編集によるMinecraftスタイルの画像生成
- Authors: Bumsoo Kim, Sanghyun Byun, Yonghoon Jung, Wonseop Shin, Sareer UI
Amin, Sanghyun Seo
- Abstract要約: 立方体多様体を有する3次元仮想キャラクタに適したテクスチャマッピングのための顔焦点画像を生成することができる。
StyleGANとStyleCLIPを使ってテキストガイダンスで操作できる。
- 参考スコア(独自算出の注目度): 5.431779602239565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we first present the character texture generation system
\textit{Minecraft-ify}, specified to Minecraft video game toward in-game
application. Ours can generate face-focused image for texture mapping tailored
to 3D virtual character having cube manifold. While existing projects or works
only generate texture, proposed system can inverse the user-provided real
image, or generate average/random appearance from learned distribution.
Moreover, it can be manipulated with text-guidance using StyleGAN and
StyleCLIP. These features provide a more extended user experience with enlarged
freedom as a user-friendly AI-tool. Project page can be found at
https://gh-bumsookim.github.io/Minecraft-ify/
- Abstract(参考訳): 本稿ではまず,Minecraft ゲームに指定された文字テクスチャ生成システム \textit{Minecraft-ify} をゲーム内アプリケーションに向けて提示する。
キューブ多様体を持つ3d仮想キャラクタに合わせたテクスチャマッピングのための顔中心画像を生成することができる。
既存のプロジェクトや作業はテクスチャのみを生成するが、提案システムはユーザが提供する実際のイメージを逆転したり、学習した分布から平均/ランダムな外観を生成することができる。
さらに、StyleGANとStyleCLIPを使ってテキストガイダンスで操作することもできる。
これらの機能は、ユーザーフレンドリーなAIツールとして、より拡張されたユーザーエクスペリエンスを提供する。
プロジェクトページはhttps://gh-bumsookim.github.io/Minecraft-ify/にある。
関連論文リスト
- DragTex: Generative Point-Based Texture Editing on 3D Mesh [11.163205302136625]
本稿ではDragTexと呼ばれる3次元メッシュテクスチャ生成手法を提案する。
この方法は拡散モデルを用いて、変形したシルエット付近の局所的に不整合なテクスチャを異なる視点でブレンドする。
個々のビューを個別にトレーニングするのではなく、マルチビューイメージを使用してLoRAをトレーニングします。
論文 参考訳(メタデータ) (2024-03-04T17:05:01Z) - GALA3D: Towards Text-to-3D Complex Scene Generation via Layout-guided
Generative Gaussian Splatting [54.39663556987393]
GALA3D, GALA3D, 生成3D GAussian, LAyout-guided control, for effective compositional text-to-3D generation。
GALA3Dは、最先端のシーンレベルの3Dコンテンツ生成と制御可能な編集のための、ユーザフレンドリーでエンドツーエンドのフレームワークである。
論文 参考訳(メタデータ) (2024-02-11T13:40:08Z) - SEEAvatar: Photorealistic Text-to-3D Avatar Generation with Constrained
Geometry and Appearance [37.85026590250023]
テキストから光リアルな3Dアバターを生成する方法であるSEEAvatarを提案する。
幾何学において、最適化されたアバターをテンプレートアバターで適切に大域的に制限することを提案する。
外観生成には、プロンプトエンジニアリングによって強化された拡散モデルを用いて物理ベースのレンダリングパイプラインを誘導する。
論文 参考訳(メタデータ) (2023-12-13T14:48:35Z) - Towards High-Fidelity Text-Guided 3D Face Generation and Manipulation
Using only Images [105.92311979305065]
TG-3DFaceは、よりリアルで美的な3D顔を生成し、ラテント3Dよりも9%のマルチビュー一貫性(MVIC)を高めている。
TG-3DFaceによって生成された描画顔画像は、テキストから2Dの顔/画像生成モデルよりも高いFIDとCLIPスコアを達成する。
論文 参考訳(メタデータ) (2023-08-31T14:26:33Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - TextMesh: Generation of Realistic 3D Meshes From Text Prompts [56.2832907275291]
リアルな3Dメッシュを生成するための新しい手法を提案する。
この目的のために、NeRFをSDFバックボーンに拡張し、3Dメッシュ抽出を改善した。
論文 参考訳(メタデータ) (2023-04-24T20:29:41Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - World-GAN: a Generative Model for Minecraft Worlds [27.221938979891384]
この研究は、Minecraftで機械学習を介してデータ駆動の手続き型コンテンツ生成を実行する最初の方法であるWorld-GANを紹介する。
GAN(Generative Adversarial Network)アーキテクチャをベースとして,任意のサンプルから任意のサイズの世界スニペットを作成できる。
論文 参考訳(メタデータ) (2021-06-18T14:45:39Z) - GANcraft: Unsupervised 3D Neural Rendering of Minecraft Worlds [29.533111314655788]
GANcraftは、大きな3Dブロック世界のフォトリアリズム画像を生成するための教師なしのニューラルレンダリングフレームワークです。
提案手法では,各ブロックにダート,草,水などの意味ラベルを割り当てたセマンティックブロックを入力とする。
ブロック世界における実画像のペア化がなければ,擬似地上真実と敵対的訓練に基づく訓練手法を考案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:38Z) - MeInGame: Create a Game Character Face from a Single Portrait [15.432712351907012]
顔の形状とテクスチャを1枚の肖像画から予測する文字顔の自動生成手法を提案する。
実験の結果,本手法はゲームにおける最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-04T02:12:19Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。