論文の概要: Example-Based Feature Painting on Textures
- arxiv url: http://arxiv.org/abs/2511.01513v1
- Date: Mon, 03 Nov 2025 12:26:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.254624
- Title: Example-Based Feature Painting on Textures
- Title(参考訳): テクスチャの具体的特徴
- Authors: Andrei-Timotei Ardelean, Tim Weyrich,
- Abstract要約: 外観変化を考慮したテクスチャ作成のための新しい手法を提案する。
私たちのパイプライン全体は、小さなイメージコレクションから汎用的な生成モデルに移行しています。
特に,拡散ベースの編集と無限定常テクスチャ生成のためのアルゴリズムは汎用的であり,他の文脈でも有用であることが証明される。
- 参考スコア(独自算出の注目度): 7.130784822780051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a system that covers the complete workflow for achieving controlled authoring and editing of textures that present distinctive local characteristics. These include various effects that change the surface appearance of materials, such as stains, tears, holes, abrasions, discoloration, and more. Such alterations are ubiquitous in nature, and including them in the synthesis process is crucial for generating realistic textures. We introduce a novel approach for creating textures with such blemishes, adopting a learning-based approach that leverages unlabeled examples. Our approach does not require manual annotations by the user; instead, it detects the appearance-altering features through unsupervised anomaly detection. The various textural features are then automatically clustered into semantically coherent groups, which are used to guide the conditional generation of images. Our pipeline as a whole goes from a small image collection to a versatile generative model that enables the user to interactively create and paint features on textures of arbitrary size. Notably, the algorithms we introduce for diffusion-based editing and infinite stationary texture generation are generic and should prove useful in other contexts as well. Project page: https://reality.tf.fau.de/pub/ardelean2025examplebased.html
- Abstract(参考訳): 本研究では,局所的な特徴を示すテクスチャの制御されたオーサリングと編集を実現するための完全なワークフローを網羅するシステムを提案する。
これには、汚れ、涙、穴、磨耗、変色など、素材の表面の外観を変える様々な効果が含まれる。
このような変化は自然界にはありふれたものであり、それらを含む合成過程は現実的なテクスチャを生み出すのに不可欠である。
このようなブレンディッシュでテクスチャを作成するための新しいアプローチを導入し、ラベルのない例を活用する学習ベースのアプローチを採用する。
本手法では,ユーザによる手動アノテーションを必要としないため,教師なし異常検出による外観変化を検出する。
様々なテクスチャ特徴は、自動的に意味的に一貫性のあるグループにクラスタ化され、画像の条件生成を導くのに使用される。
私たちのパイプライン全体は、小さなイメージコレクションから、ユーザが任意のサイズのテクスチャにインタラクティブに機能を作成し、絵を描くことのできる、汎用的な生成モデルに移行しています。
特に,拡散に基づく編集と無限定常テクスチャ生成のためのアルゴリズムは汎用的であり,他の文脈でも有用であることが証明される。
プロジェクトページ: https://reality.tf.fau.de/pub/ardelean2025examplebased.html
関連論文リスト
- TexTailor: Customized Text-aligned Texturing via Effective Resampling [14.861723817863806]
テキスト記述から一貫したテクスチャを生成する新しい方法であるTexTailorを提案する。
既存のテキスト・テクスチャ合成アプローチでは、深度認識拡散モデルを用いて画像を生成し、複数の視点でテクスチャを合成する。
我々は、オブジェクトの形状に基づいてカメラの位置を適応的に調整することで、ビュー一貫性テクスチャの合成を改善する。
論文 参考訳(メタデータ) (2025-06-12T11:55:44Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - Compositional Neural Textures [25.885557234297835]
この研究は、合成ニューラルモデルを用いてテクスチャを表現するための、完全に教師なしのアプローチを導入する。
我々は,各テキストを,空間的支持がその形状を近似する2次元ガウス関数と,その詳細な外観を符号化する関連する特徴として表現する。
このアプローチは、画像テクスチャから他のイメージへの外観の移動、テクスチャの多様化、テクスチャのバリエーションの明示/修正、編集の伝播、テクスチャアニメーション、ダイレクトテキスト操作など、幅広いアプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-04-18T21:09:34Z) - GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。