論文の概要: Exemplar-bsaed Pattern Synthesis with Implicit Periodic Field Network
- arxiv url: http://arxiv.org/abs/2204.01671v1
- Date: Mon, 4 Apr 2022 17:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 13:26:48.443307
- Title: Exemplar-bsaed Pattern Synthesis with Implicit Periodic Field Network
- Title(参考訳): 暗黙的周期的場ネットワークを用いたexemplar-bsaedパターン合成
- Authors: Haiwei Chen, Jiayi Liu, Weikai Chen, Shichen Liu, Yajie Zhao
- Abstract要約: 本稿では、視覚パターンの内部統計をモデル化し、新しい多目的パターンを生成することを目的とした、模範に基づく視覚パターン合成フレームワークを提案する。
GAN(Generative Adversarial Network)と周期符号化に基づく暗黙ネットワークにより,我々のネットワークをIPFN(Implicit Periodic Network)と呼ぶ。
- 参考スコア(独自算出の注目度): 21.432274505770394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthesis of ergodic, stationary visual patterns is widely applicable in
texturing, shape modeling, and digital content creation. The wide applicability
of this technique thus requires the pattern synthesis approaches to be
scalable, diverse, and authentic. In this paper, we propose an exemplar-based
visual pattern synthesis framework that aims to model the inner statistics of
visual patterns and generate new, versatile patterns that meet the
aforementioned requirements. To this end, we propose an implicit network based
on generative adversarial network (GAN) and periodic encoding, thus calling our
network the Implicit Periodic Field Network (IPFN). The design of IPFN ensures
scalability: the implicit formulation directly maps the input coordinates to
features, which enables synthesis of arbitrary size and is computationally
efficient for 3D shape synthesis. Learning with a periodic encoding scheme
encourages diversity: the network is constrained to model the inner statistics
of the exemplar based on spatial latent codes in a periodic field. Coupled with
continuously designed GAN training procedures, IPFN is shown to synthesize
tileable patterns with smooth transitions and local variations. Last but not
least, thanks to both the adversarial training technique and the encoded
Fourier features, IPFN learns high-frequency functions that produce authentic,
high-quality results. To validate our approach, we present novel experimental
results on various applications in 2D texture synthesis and 3D shape synthesis.
- Abstract(参考訳): エルゴディックな静止視覚パターンの合成は、テクスチャ、形状モデリング、デジタルコンテンツ作成に広く応用されている。
したがって、この技術の幅広い適用性は、パターン合成アプローチがスケーラブルで多様で、本物である必要がある。
本稿では,視覚パターンの内部統計をモデル化し,前述の要件を満たす新たな多用途パターンを生成することを目的とした,例題ベースのビジュアルパターン合成フレームワークを提案する。
そこで我々は,GAN(Generative Adversarial Network)と周期符号化に基づく暗黙のネットワークを提案し,このネットワークをIPFN(Implicit Periodic Field Network)と呼ぶ。
IPFNの設計はスケーラビリティを保証する:暗黙の定式化は入力座標を直接特徴にマッピングし、任意の大きさの合成を可能にし、3次元形状合成に計算効率が良い。
ネットワークは、周期的な分野における空間潜在符号に基づいて、模範者の内部統計をモデル化することを制約される。
連続的に設計されたGANトレーニング手順と組み合わせて、IPFNはスムーズな遷移と局所的な変動でタイル状パターンを合成する。
最後に、敵対的トレーニング技術と符号化されたフーリエ機能のおかげで、IPFNは真に高品質な結果を生み出す高周波関数を学習する。
本研究では,2次元テクスチャ合成と3次元形状合成の様々な応用に関する新しい実験結果を示す。
関連論文リスト
- Learning Dynamic Tetrahedra for High-Quality Talking Head Synthesis [31.90503003079933]
我々は、ニューラルネットワークによる明示的な動的メッシュをエンコードする新しいハイブリッド表現であるDynamic Tetrahedra(DynTet)を紹介する。
以前の研究と比較すると、DynTetは様々なメトリクスに従って忠実さ、唇の同期、リアルタイムのパフォーマンスを著しく改善している。
論文 参考訳(メタデータ) (2024-02-27T09:56:15Z) - RAVEN: Rethinking Adversarial Video Generation with Efficient Tri-plane Networks [93.18404922542702]
本稿では,長期的空間的および時間的依存関係に対処する新しいビデオ生成モデルを提案する。
提案手法は,3次元認識型生成フレームワークにインスパイアされた,明示的で単純化された3次元平面のハイブリッド表現を取り入れたものである。
我々のモデルは高精細度ビデオクリップを解像度256時間256$ピクセルで合成し、フレームレート30fpsで5ドル以上まで持続する。
論文 参考訳(メタデータ) (2024-01-11T16:48:44Z) - T-Code: Simple Temporal Latent Code for Efficient Dynamic View Synthesis [10.80308375955974]
本稿では,時間次元のみの効率的な非結合遅延符号であるT-Codeについて述べる。
我々は,マルチカメラ設定のための高コンパクトなハイブリッドニューラルネットワークプリミティブ (HybridNGP) と,モノクロシナリオのためのT-Code (DNGP-T) を用いたニューラルネットワークプリミティブを提案する。
論文 参考訳(メタデータ) (2023-12-18T08:31:40Z) - InVAErt networks: a data-driven framework for model synthesis and
identifiability analysis [0.0]
inVAErtは物理システムのデータ駆動分析と合成のためのフレームワークである。
これは、前方および逆写像を表す決定論的デコーダ、系の出力の確率分布を捉える正規化フロー、入力と出力の間の単射性の欠如についてコンパクトな潜在表現を学ぶ変分エンコーダを使用する。
論文 参考訳(メタデータ) (2023-07-24T07:58:18Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Progressive Encoding for Neural Optimization [92.55503085245304]
メッシュ転送におけるppe層の能力と,そのアドバンテージを,現代の表面マッピング技術と比較した。
最も重要な点は, パラメタライズフリーな手法であり, 様々な対象形状表現に適用可能であることである。
論文 参考訳(メタデータ) (2021-04-19T08:22:55Z) - Fast and Flexible Temporal Point Processes with Triangular Maps [24.099464487795274]
我々は、サンプリングと可能性の両方を並列に行うことができる新しい非リカレントTPPモデルを提案する。
合成および実世界のデータセットにおける提案フレームワークの利点を実証する。
論文 参考訳(メタデータ) (2020-06-22T21:34:10Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。