論文の概要: Generating Pixel Art Character Sprites using GANs
- arxiv url: http://arxiv.org/abs/2208.06413v1
- Date: Mon, 15 Aug 2022 14:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:20:48.089251
- Title: Generating Pixel Art Character Sprites using GANs
- Title(参考訳): GANを用いた画素アートキャラクタスプライトの生成
- Authors: Fl\'avio Coutinho, Luiz Chaimowicz
- Abstract要約: ゲーム開発プロセスにおいて,ピクセルアートキャラクタスプライトシートの作成を繰り返すことが不可欠である。
本稿では,このようなスプライトシートの作成を支援するために,条件付き生成対向ネットワークを用いて検討する。
- 参考スコア(独自算出の注目度): 2.832641837766535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Iterating on creating pixel art character sprite sheets is essential to the
game development process. However, it can take a lot of effort until the final
versions containing different poses and animation clips are achieved. This
paper investigates using conditional generative adversarial networks to aid the
designers in creating such sprite sheets. We propose an architecture based on
Pix2Pix to generate images of characters facing a target side (e.g., right)
given sprites of them in a source pose (e.g., front). Experiments with small
pixel art datasets yielded promising results, resulting in models with varying
degrees of generalization, sometimes capable of generating images very close to
the ground truth. We analyze the results through visual inspection and
quantitatively with FID.
- Abstract(参考訳): ゲーム開発プロセスにおいて,ピクセルアートキャラクタスプライトシートの作成を繰り返すことが不可欠である。
しかし、さまざまなポーズやアニメーションクリップを含む最終バージョンが完成するまでは、多くの労力が必要となる。
本稿では,このようなスプライトシートの作成を支援するために,条件付き生成対向ネットワークを用いて検討する。
本稿では、Pix2Pixをベースとしたアーキテクチャを提案し、ソースポーズ(例えば、フロント)において、ターゲット側(例えば、右)に向き合う文字の画像を生成する。
小さなピクセルアートデータセットによる実験は有望な結果をもたらし、結果として様々な一般化のモデルが生まれ、時には地上の真実に非常に近い画像を生成することができた。
視覚検査とFIDによる定量的解析を行った。
関連論文リスト
- PixWizard: Versatile Image-to-Image Visual Assistant with Open-Language Instructions [66.92809850624118]
PixWizardは、画像生成、操作、翻訳を自由言語命令に基づいて行うために設計されたイメージ・ツー・イメージのビジュアルアシスタントである。
我々は、様々な視覚タスクを統一された画像テキスト・画像生成フレームワークに取り組み、Omni Pixel-to-Pixel Instruction-Tuningデータセットをキュレートする。
我々の実験は、PixWizardが様々な解像度の画像に対して印象的な生成能力と理解能力を示すだけでなく、目に見えないタスクや人間の指示で有望な一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-23T17:59:46Z) - A Missing Data Imputation GAN for Character Sprite Generation [1.2707050104493218]
本稿では,課題を欠落したデータ計算タスクとしてフレーミングすることで,文字生成に新たなアプローチを提案する。
提案する生成ネットワークモデルは、利用可能なすべての領域の文字の画像を受信し、欠落したポーズの画像を生成します。
論文 参考訳(メタデータ) (2024-09-16T20:50:32Z) - Alfie: Democratising RGBA Image Generation With No $$$ [33.334956022229846]
本稿では,事前学習した拡散変圧器モデルの推論時挙動を変化させ,RGBA図形の完全自動生成手法を提案する。
我々は、デザインプロジェクトや芸術シーンへのシームレスな統合のために、背景が容易に取り除かれるシャープな刈り取りを行なわずに、被験者全体の生成を強制する。
論文 参考訳(メタデータ) (2024-08-27T07:13:44Z) - Fast Sprite Decomposition from Animated Graphics [6.281229317487581]
アニメーショングラフィックをスプライト(基本要素や層)に分解する手法を提案する。
効率的のために,スプライトの静的テクスチャを仮定し,テクスチャ先行モデルを用いたアーティファクトの防止と探索空間の削減を図る。
本研究では,オンラインデザインサービスからCrello Animationデータセットを構築し,抽出したスプライトの品質を測定するための定量的指標を定義した。
論文 参考訳(メタデータ) (2024-08-07T17:30:59Z) - Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - APES: Articulated Part Extraction from Sprite Sheets [32.571973284619084]
引き裂かれた人形は2Dキャラクターアニメーションを作成する上で最も一般的な表現の1つである。
本研究では,スプライトシートに示される小文字のポーズから,このような明瞭な部分を自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:44:04Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - ReGO: Reference-Guided Outpainting for Scenery Image [82.21559299694555]
生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
論文 参考訳(メタデータ) (2021-06-20T02:34:55Z) - MarioNette: Self-Supervised Sprite Learning [67.51317291061115]
反復要素のグラフィカルな非絡み合い表現を得るための深層学習手法を提案する。
テクスチャパッチの辞書を共同で学習し,それらをキャンバスに配置するネットワークを訓練することにより,スプライトベースのコンテンツをスパースで一貫性があり,解釈可能な表現に効果的に分解する。
論文 参考訳(メタデータ) (2021-04-29T17:59:01Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。