論文の概要: TactStyle: Generating Tactile Textures with Generative AI for Digital Fabrication
- arxiv url: http://arxiv.org/abs/2503.02007v1
- Date: Mon, 03 Mar 2025 19:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:55.569422
- Title: TactStyle: Generating Tactile Textures with Generative AI for Digital Fabrication
- Title(参考訳): TactStyle: デジタルファブリケーションのための生成AIによる触覚テクスチャの生成
- Authors: Faraz Faruqi, Maxine Perroni-Scharf, Jaskaran Singh Walia, Yunyi Zhu, Shuyue Feng, Donald Degraen, Stefanie Mueller,
- Abstract要約: 本稿では,3Dモデルに触覚特性を取り入れつつ,画像で3DモデルをスタイリングするシステムであるTactStyleを紹介する。
TactStyleは、修正された画像生成モデルを使用してこれを達成し、所定の表面テクスチャのための高さ場を生成する。
心理物理学的な実験では、3Dプリントした原材料とTactStyleの生成したテクスチャの触覚特性を評価した。
- 参考スコア(独自算出の注目度): 15.156013274309018
- License:
- Abstract: Recent work in Generative AI enables the stylization of 3D models based on image prompts. However, these methods do not incorporate tactile information, leading to designs that lack the expected tactile properties. We present TactStyle, a system that allows creators to stylize 3D models with images while incorporating the expected tactile properties. TactStyle accomplishes this using a modified image-generation model fine-tuned to generate heightfields for given surface textures. By optimizing 3D model surfaces to embody a generated texture, TactStyle creates models that match the desired style and replicate the tactile experience. We utilize a large-scale dataset of textures to train our texture generation model. In a psychophysical experiment, we evaluate the tactile qualities of a set of 3D-printed original textures and TactStyle's generated textures. Our results show that TactStyle successfully generates a wide range of tactile features from a single image input, enabling a novel approach to haptic design.
- Abstract(参考訳): Generative AIの最近の研究は、画像プロンプトに基づく3Dモデルのスタイリングを可能にする。
しかし、これらの方法は触覚情報を組み込まないため、期待される触覚特性に欠ける設計に繋がる。
本稿では,3Dモデルに触覚特性を取り入れつつ,画像で3DモデルをスタイリングするシステムであるTactStyleを紹介する。
TactStyleは、修正された画像生成モデルを使用してこれを達成し、所定の表面テクスチャのための高さ場を生成する。
3Dモデルの表面を最適化して生成したテクスチャを具現化することによって、TactStyleは望ましいスタイルにマッチし、触覚体験を再現するモデルを作成する。
我々は、テクスチャ生成モデルをトレーニングするために、テクスチャの大規模なデータセットを利用する。
心理物理学的な実験では、3Dプリントした原材料とTactStyleの生成したテクスチャの触覚特性を評価した。
以上の結果から,TactStyleは単一画像入力から多種多様な触覚特徴を抽出し,触覚設計への新たなアプローチを実現することができた。
関連論文リスト
- InsTex: Indoor Scenes Stylized Texture Synthesis [81.12010726769768]
拡張現実(ARVR)アプリケーションでは、高品質なテクスチャが3Dシーンに不可欠である。
現在の手法は、長い処理時間と視覚的アーティファクトに悩まされている。
3Dシーンのための高品質なテクスチャを生成するために設計された2段階アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-22T08:37:59Z) - Tactile DreamFusion: Exploiting Tactile Sensing for 3D Generation [39.702921832009466]
本稿では,タッチを付加的なモダリティとして組み込むことにより,生成した3次元資産の幾何学的詳細性を向上する手法を提案する。
2次元拡散モデルにより導かれる視覚的および触覚的テクスチャを合成する軽量な3次元テクスチャ場を設計する。
我々は,3次元生成タスクの幾何学的詳細性を高めるために,高分解能触覚を初めて活用する。
論文 参考訳(メタデータ) (2024-12-09T18:59:45Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes [23.553141179900763]
StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に研究されていない。
本研究では,3次元形状の視角に整合した高品質なテクスチャを生産するセマンティック誘導型条件テクスチャジェネレータ(CTGAN)を提案する。
CTGANはStyleGANの歪んだ性質を利用して入力された潜伏符号を微調整し、生成されたテクスチャのスタイルと構造の両方を明示的に制御できる。
論文 参考訳(メタデータ) (2024-02-08T15:00:15Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - DreamStone: Image as Stepping Stone for Text-Guided 3D Shape Generation [105.97545053660619]
テキスト誘導型3次元形状生成手法DreamStoneを提案する。
画像を使ってテキストと形状のギャップを埋め、ペアのテキストと3Dデータを必要とせずに3Dの形状を生成する。
我々のアプローチは汎用的で柔軟でスケーラブルであり、様々なSVRモデルと容易に統合でき、生成空間を拡大し、生成忠実性を向上させることができる。
論文 参考訳(メタデータ) (2023-03-24T03:56:23Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Text to Mesh Without 3D Supervision Using Limit Subdivision [13.358081015190255]
本稿では,ターゲットテキストプロンプトのみを用いた3次元モデルのゼロショット生成手法を提案する。
入力テキストプロンプトを3Dモデルの異なるレンダリング画像と比較する、事前訓練されたCLIPモデルに依存しています。
論文 参考訳(メタデータ) (2022-03-24T20:36:28Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。