論文の概要: Dual Pipeline Style Transfer with Input Distribution Differentiation
- arxiv url: http://arxiv.org/abs/2311.05432v1
- Date: Thu, 9 Nov 2023 15:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 14:51:04.441094
- Title: Dual Pipeline Style Transfer with Input Distribution Differentiation
- Title(参考訳): 入力分布の差分によるデュアルパイプライン型転送
- Authors: ShiQi Jiang, JunJie Kang, YuJian Li
- Abstract要約: スムーズな入力は、テクスチャ表現を削除する重要な理由ではなく、トレーニングデータセットの分散分化である。
本稿では,音分布に完全に依存するテクスチャ生成を強制する入力分布微分学習戦略を提案する。
- 参考スコア(独自算出の注目度): 1.5972238732677921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The color and texture dual pipeline architecture (CTDP) suppresses texture
representation and artifacts through masked total variation loss (Mtv), and
further experiments have shown that smooth input can almost completely
eliminate texture representation. We have demonstrated through experiments that
smooth input is not the key reason for removing texture representations, but
rather the distribution differentiation of the training dataset. Based on this,
we propose an input distribution differentiation training strategy (IDD), which
forces the generation of textures to be completely dependent on the noise
distribution, while the smooth distribution will not produce textures at all.
Overall, our proposed distribution differentiation training strategy allows for
two pre-defined input distributions to be responsible for two generation tasks,
with noise distribution responsible for texture generation and smooth
distribution responsible for color smooth transfer. Finally, we choose a smooth
distribution as the input for the forward inference stage to completely
eliminate texture representations and artifacts in color transfer tasks.
- Abstract(参考訳): カラー・テクスチャ二重パイプラインアーキテクチャ(CTDP)は,マスク付き全変量損失(Mtv)によってテクスチャ表現やアーティファクトを抑圧し,スムーズな入力がテクスチャ表現をほぼ完全に排除できることを示した。
我々は,スムース入力がテクスチャ表現を取り除く重要な理由ではなく,むしろトレーニングデータセットの分散分化であることを示す実験を行った。
そこで本研究では,スムース分布がテクスチャを全く生成しないのに対して,テクスチャ生成をノイズ分布に完全に依存させる入力分布分化訓練戦略(idd)を提案する。
総じて,提案する分布分化訓練戦略により,2つの入力分布が2世代のタスクに寄与し,ノイズ分布がテクスチャ生成に,スムース分布がカラースムース転送に寄与する。
最後に,色伝達タスクにおけるテクスチャ表現やアーティファクトを完全に排除するために,前方推論段階の入力としてスムーズな分布を選択する。
関連論文リスト
- Rethinking Score Distillation as a Bridge Between Image Distributions [97.27476302077545]
提案手法は, 劣化した画像(ソース)を自然画像分布(ターゲット)に転送することを目的としている。
本手法は,複数の領域にまたがって容易に適用可能であり,特殊な手法の性能のマッチングや評価を行うことができる。
テキストから2D、テキストベースのNeRF最適化、絵画を実画像に変換すること、光学錯視生成、および3Dスケッチから実画像に変換することにおいて、その実用性を実証する。
論文 参考訳(メタデータ) (2024-06-13T17:59:58Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Color and Texture Dual Pipeline Lightweight Style Transfer [1.1863107884314108]
スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
論文 参考訳(メタデータ) (2023-10-02T16:29:49Z) - Bayesian Flow Networks [4.585102332532472]
本稿では,ベイジアン・フロー・ネットワーク(BFN)について述べる。ベイジアン・フロー・ネットワーク(BFN)は,独立分布の集合のパラメータをベイジアン推論で修正した新しい生成モデルである。
単純な事前および反復的な2つの分布の更新から始めると、拡散モデルの逆過程に似た生成手順が得られる。
BFNは動的にバイナライズされたMNISTとCIFAR-10で画像モデリングを行うために競合するログライクフレーションを実現し、text8文字レベルの言語モデリングタスクにおいて既知のすべての離散拡散モデルより優れている。
論文 参考訳(メタデータ) (2023-08-14T09:56:35Z) - Lightweight texture transfer based on texture feature preset [1.1863107884314108]
テクスチャ特徴プリセットに基づく軽量なテクスチャ転送を提案する。
結果は視覚的に優れた結果を示すが、モデルのサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍に高速化する。
論文 参考訳(メタデータ) (2023-06-29T10:37:29Z) - One Transformer Fits All Distributions in Multi-Modal Diffusion at Scale [36.590918776922905]
本論文では,マルチモーダルデータの集合に関連するすべての分布を1つのモデルに適合させる統合拡散フレームワーク(UniDiffuser)を提案する。
統一的な視点に触発されたUniDiffuserは、元の拡散モデルに最小限の変更を加えながら、全ての分布を同時に学習する。
論文 参考訳(メタデータ) (2023-03-12T03:38:39Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。