論文の概要: NITES: A Non-Parametric Interpretable Texture Synthesis Method
- arxiv url: http://arxiv.org/abs/2009.01376v1
- Date: Wed, 2 Sep 2020 22:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:38:24.792662
- Title: NITES: A Non-Parametric Interpretable Texture Synthesis Method
- Title(参考訳): NITES:非パラメトリック解釈可能なテクスチャ合成法
- Authors: Xuejing Lei, Ganning Zhao, C.-C. Jay Kuo
- Abstract要約: 本研究では,NITES法と呼ばれる非パラメトリック解釈可能なテクスチャ合成法を提案する。
NITESは数学的に透明で、訓練や推論において効率的である。
- 参考スコア(独自算出の注目度): 41.13585191073405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A non-parametric interpretable texture synthesis method, called the NITES
method, is proposed in this work. Although automatic synthesis of visually
pleasant texture can be achieved by deep neural networks nowadays, the
associated generation models are mathematically intractable and their training
demands higher computational cost. NITES offers a new texture synthesis
solution to address these shortcomings. NITES is mathematically transparent and
efficient in training and inference. The input is a single exemplary texture
image. The NITES method crops out patches from the input and analyzes the
statistical properties of these texture patches to obtain their joint
spatial-spectral representations. Then, the probabilistic distributions of
samples in the joint spatial-spectral spaces are characterized. Finally,
numerous texture images that are visually similar to the exemplary texture
image can be generated automatically. Experimental results are provided to show
the superior quality of generated texture images and efficiency of the proposed
NITES method in terms of both training and inference time.
- Abstract(参考訳): 本研究では,NITES法と呼ばれる非パラメトリック解釈可能なテクスチャ合成法を提案する。
近年、深層ニューラルネットワークによって視覚的に快適なテクスチャの自動合成が実現されているが、関連する生成モデルは数学的に難解であり、そのトレーニングには高い計算コストが要求される。
NITESはこれらの欠点に対処する新しいテクスチャ合成ソリューションを提供する。
NITESは数学的に透明で、訓練や推論において効率的である。
入力は単一の模範テクスチャ画像である。
NITES法は入力からパッチを抽出し、これらのテクスチャパッチの統計的特性を分析し、それらの共同空間スペクトル表現を得る。
次に, 共同空間空間における試料の確率分布を特徴付ける。
最後に、模範的なテクスチャ画像と視覚的に類似した多数のテクスチャ画像を自動的に生成することができる。
実験により,生成したテクスチャ画像の優れた品質と,提案手法の有効性を,トレーニング時間と推論時間の両方の観点から示す。
関連論文リスト
- Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Diffusion-based Holistic Texture Rectification and Synthesis [26.144666226217062]
伝統的なテクスチャ合成アプローチは、原始サンプルからテクスチャを生成することに重点を置いている。
自然画像中の劣化サンプルから全体的テクスチャを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-26T08:44:46Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - A Generative Model for Texture Synthesis based on Optimal Transport
between Feature Distributions [8.102785819558978]
任意の大きさの新しいテクスチャをオンザフライで合成できるフィードフォワードニューラルネットワークを、我々のフレームワークを使って学習する方法を示す。
我々のフレームワークを使ってフィードフォワードニューラルネットワークを学習し、任意のサイズの新しいテクスチャを高速に合成する方法を示します。
論文 参考訳(メタデータ) (2020-06-19T13:32:55Z) - Texture Interpolation for Probing Visual Perception [4.637185817866918]
テクスチャの深部畳み込みニューラルネットワーク(CNN)活性化の分布は楕円分布によってよく説明されている。
そこで我々は,任意のテクスチャ間を補間する最適な輸送距離を持つ自然測地学を提案する。
本手法は他のCNN手法と比較して,テクスチャ知覚の幾何学とより密に一致しているようである。
論文 参考訳(メタデータ) (2020-06-05T21:28:36Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。