論文の概要: Capabilities, Limitations and Challenges of Style Transfer with
CycleGANs: A Study on Automatic Ring Design Generation
- arxiv url: http://arxiv.org/abs/2207.08989v1
- Date: Mon, 18 Jul 2022 23:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:40:17.697605
- Title: Capabilities, Limitations and Challenges of Style Transfer with
CycleGANs: A Study on Automatic Ring Design Generation
- Title(参考訳): サイクルGANを用いたスタイル伝達の能力・限界・課題:自動リング設計生成に関する研究
- Authors: Tomas Cabezon Pedroso, Javier Del Ser, Natalia Diaz-Rodr{\i}guez
- Abstract要約: 本研究は,CycleGANが初期スケッチから3Dデザインを表す2Dの最終レンダリングへのスタイル転送に適用可能であることを検証する。
私たちのコントリビューションは、顧客が購入する前に最終製品を見ることを可能にするため、プロセスの重要な部分を必要とします。
- 参考スコア(独自算出の注目度): 7.489793155793319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rendering programs have changed the design process completely as they permit
to see how the products will look before they are fabricated. However, the
rendering process is complicated and takes a significant amount of time, not
only in the rendering itself but in the setting of the scene as well.
Materials, lights and cameras need to be set in order to get the best quality
results. Nevertheless, the optimal output may not be obtained in the first
render. This all makes the rendering process a tedious process. Since
Goodfellow et al. introduced Generative Adversarial Networks (GANs) in 2014
[1], they have been used to generate computer-assigned synthetic data, from
non-existing human faces to medical data analysis or image style transfer. GANs
have been used to transfer image textures from one domain to another. However,
paired data from both domains was needed. When Zhu et al. introduced the
CycleGAN model, the elimination of this expensive constraint permitted
transforming one image from one domain into another, without the need for
paired data. This work validates the applicability of CycleGANs on style
transfer from an initial sketch to a final render in 2D that represents a 3D
design, a step that is paramount in every product design process. We inquiry
the possibilities of including CycleGANs as part of the design pipeline, more
precisely, applied to the rendering of ring designs. Our contribution entails a
crucial part of the process as it allows the customer to see the final product
before buying. This work sets a basis for future research, showing the
possibilities of GANs in design and establishing a starting point for novel
applications to approach crafts design.
- Abstract(参考訳): レンダリングプログラムは、製品が製造される前にどのように見えるかを確認することができるため、デザインプロセスを完全に変えた。
しかし、レンダリングプロセスは複雑で、レンダリング自体だけでなく、シーンの設定にもかなりの時間がかかる。
高品質な結果を得るためには、材料、照明、カメラをセットする必要がある。
しかし、最適な出力は第1のレンダリングでは得られない。
これにより、レンダリングプロセスは面倒なプロセスになります。
goodfellowらは2014年にgans(generative adversarial networks)を導入してから、既存の顔から医療データ分析や画像転送まで、コンピュータに割り当てられた合成データを生成するのに使われてきた。
GANは画像テクスチャをあるドメインから別のドメインに転送するために使われてきた。
しかし、両ドメインのペアデータが必要であった。
ZhuらがCycleGANモデルを導入したとき、この高価な制約の排除により、ペア化されたデータを必要としない、ひとつの画像を別のドメインに変換することができた。
この研究は、最初のスケッチから3dデザインを表す2dの最終的なレンダリングへのスタイル転送におけるサイクルガンの適用性を検証する。
設計パイプラインの一部としてCycleGANを組み込む可能性について,より正確にはリング設計のレンダリングに適用する。
私たちのコントリビューションにはプロセスの重要な部分が含まれており、顧客が購入する前に最終製品を見ることができます。
この研究は、デザインにおけるGANの可能性を示し、クラフトデザインにアプローチするための新しい応用の出発点を確立する、将来の研究の基盤となる。
関連論文リスト
- Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - Semantically-aware Mask CycleGAN for Translating Artistic Portraits to
Photo-realistic Visualizations [0.0]
芸術的な肖像画を視覚化に変換できるセマンティック・アウェアのマスクサイクルGANアーキテクチャを提案する。
このモデルは、識別者が意味的に偽のサンプルを隠蔽することで、現実的な人間の肖像画を生成することができる。
実験により、SMCycleGANはリアリズムを著しく増加させ、コンテンツ表現の損失を最小限に抑える画像を生成することが示された。
論文 参考訳(メタデータ) (2023-06-11T03:58:09Z) - In-N-Out: Faithful 3D GAN Inversion with Volumetric Decomposition for Face Editing [28.790900756506833]
3D対応のGANは、2D対応の編集機能を保ちながら、ビュー合成のための新しい機能を提供する。
GANインバージョンは、入力画像や動画を再構成する潜時コードを求める重要なステップであり、この潜時コードを操作することで様々な編集タスクを可能にする。
我々は3次元GANの入力からOODオブジェクトを明示的にモデル化することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:59:56Z) - 3DAvatarGAN: Bridging Domains for Personalized Editable Avatars [75.31960120109106]
3D-GANは、一貫した構造を持つ大規模データセットのトレーニングにより、幾何学とテクスチャを合成する。
本稿では,ソースドメインが事前訓練された3D-GANであり,ターゲットドメインが2D-GANである適応フレームワークを提案する。
本稿では,芸術領域の誇張された幾何学をモデル化するための変形に基づく手法について述べる。
論文 参考訳(メタデータ) (2023-01-06T19:58:47Z) - 3DDesigner: Towards Photorealistic 3D Object Generation and Editing with
Text-guided Diffusion Models [71.25937799010407]
テキスト誘導拡散モデルを用いて3次元連続生成を実現する。
本研究では3次元局所編集について検討し,2段階の解法を提案する。
モデルを拡張してワンショットのノベルビュー合成を行う。
論文 参考訳(メタデータ) (2022-11-25T13:50:00Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。