論文の概要: Generative AI in Color-Changing Systems: Re-Programmable 3D Object Textures with Material and Design Constraints
- arxiv url: http://arxiv.org/abs/2404.17028v1
- Date: Thu, 25 Apr 2024 20:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:33:49.376054
- Title: Generative AI in Color-Changing Systems: Re-Programmable 3D Object Textures with Material and Design Constraints
- Title(参考訳): カラー交換システムにおける生成AI:材料・設計制約による3Dオブジェクトテクスチャの再現性
- Authors: Yunyi Zhu, Faraz Faruqi, Stefanie Mueller,
- Abstract要約: フォトクロミック材料を用いたリプログラミング可能な表面の材料および設計制約を伴って、生成型AIシステムを拡張する可能性について論じる。
生成するAIシステムを、フォトクロミック染料で物理的に実現可能な色や素材に制限することにより、ユーザーはさまざまな実行可能なパターンを探索できるツールを作成できる。
- 参考スコア(独自算出の注目度): 13.440729439462014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in Generative AI tools have allowed designers to manipulate existing 3D models using text or image-based prompts, enabling creators to explore different design goals. Photochromic color-changing systems, on the other hand, allow for the reprogramming of surface texture of 3D models, enabling easy customization of physical objects and opening up the possibility of using object surfaces for data display. However, existing photochromic systems require the user to manually design the desired texture, inspect the simulation of the pattern on the object, and verify the efficacy of the generated pattern. These manual design, inspection, and verification steps prevent the user from efficiently exploring the design space of possible patterns. Thus, by designing an automated workflow desired for an end-to-end texture application process, we can allow rapid iteration on different practicable patterns. In this workshop paper, we discuss the possibilities of extending generative AI systems, with material and design constraints for reprogrammable surfaces with photochromic materials. By constraining generative AI systems to colors and materials possible to be physically realized with photochromic dyes, we can create tools that would allow users to explore different viable patterns, with text and image-based prompts. We identify two focus areas in this topic: photochromic material constraints and design constraints for data-encoded textures. We highlight the current limitations of using generative AI tools to create viable textures using photochromic material. Finally, we present possible approaches to augment generative AI methods to take into account the photochromic material constraints, allowing for the creation of viable photochromic textures rapidly and easily.
- Abstract(参考訳): Generative AIツールの進歩により、デザイナーはテキストや画像ベースのプロンプトを使って既存の3Dモデルを操作できるようになった。
一方、フォトクロミックな色変化システムは、3Dモデルの表面テクスチャをリプログラミングし、物理的オブジェクトのカスタマイズを容易にし、データ表示にオブジェクト表面を使用する可能性を開放する。
しかし、既存のフォトクロミックシステムでは、ユーザが手動で所望のテクスチャを設計し、オブジェクト上のパターンのシミュレーションを検査し、生成されたパターンの有効性を検証する必要がある。
これらの手動設計、検査、検証のステップは、ユーザーが可能なパターンの設計空間を効率的に探索することを妨げる。
したがって、エンド・ツー・エンドのテクスチャ・アプリケーション・プロセスに望まれる自動化ワークフローを設計することで、異なる実践可能なパターンをすばやくイテレーションすることができる。
本ワークショップでは,光クロミック材料を用いたリプログラミング可能な表面の材料および設計制約を伴って,生成型AIシステムの拡張の可能性について論じる。
生成するAIシステムを、フォトクロミック染料で物理的に実現可能な色や素材に制限することにより、ユーザーはテキストや画像ベースのプロンプトを使って、さまざまな実行可能なパターンを探索できるツールを作成できる。
このトピックでは、フォトクロミックな材料制約と、データエンコードされたテクスチャの設計制約の2つの焦点領域を識別する。
私たちは、生成AIツールを使用して、フォトクロミック素材を使用して実行可能なテクスチャを作成する、現在の制限を強調します。
最後に,フォトクロミックな素材制約を考慮に入れた生成型AIの手法を改良し,光クロミックなテクスチャを迅速かつ容易に作成する方法を提案する。
関連論文リスト
- BlenderAlchemy: Editing 3D Graphics with Vision-Language Models [4.852796482609347]
ビジョンベースの編集生成器と状態評価器が協力して、目標を達成するための正しいアクションのシーケンスを見つける。
人間のデザインプロセスにおける視覚的想像力の役割に触発されて、視覚言語モデルの視覚的推論能力を「想像された」参照画像で補う。
論文 参考訳(メタデータ) (2024-04-26T19:37:13Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Texture Generation Using Graph Generative Adversarial Network And
Differentiable Rendering [0.6439285904756329]
既存の3次元メッシュモデルのための新しいテクスチャ合成は、シミュレータのフォトリアルアセット生成に向けた重要なステップである。
既存の手法は、カメラの観点からの3次元空間の投影である2次元画像空間で本質的に機能する。
本稿では,BlenderやUnreal Engineといったツールを用いて,与えられた3Dメッシュモデルに直接統合可能なテクスチャを生成可能なGGAN(Graph Generative Adversarial Network)という新しいシステムを提案する。
論文 参考訳(メタデータ) (2022-06-17T04:56:03Z) - Realistic Image Synthesis with Configurable 3D Scene Layouts [59.872657806747576]
本稿では,3次元シーンレイアウトに基づくリアルな画像合成手法を提案する。
提案手法では, セマンティッククラスラベルを入力として3Dシーンを抽出し, 3Dシーンの描画ネットワークを訓練する。
訓練された絵画ネットワークにより、入力された3Dシーンのリアルな外観の画像を描画し、操作することができる。
論文 参考訳(メタデータ) (2021-08-23T09:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。