論文の概要: Long Range Constraints for Neural Texture Synthesis Using Sliced
Wasserstein Loss
- arxiv url: http://arxiv.org/abs/2211.11137v1
- Date: Mon, 21 Nov 2022 01:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 20:43:40.728786
- Title: Long Range Constraints for Neural Texture Synthesis Using Sliced
Wasserstein Loss
- Title(参考訳): スライスドワッサースタイン損失を用いたニューラルテクスチャ合成のための長距離制約
- Authors: Liping Yin and Albert Chua
- Abstract要約: Sliced Wasserstein Lossに基づくテクスチャ合成のための新しい統計セットを提案する。
ユーザが付加した空間タグを使わずにテクスチャを合成するマルチスケールアルゴリズムを作成する。
- 参考スコア(独自算出の注目度): 1.0660480034605242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decade, exemplar-based texture synthesis algorithms have seen
strong gains in performance by matching statistics of deep convolutional neural
networks. However, these algorithms require regularization terms or user-added
spatial tags to capture long range constraints in images. Having access to a
user-added spatial tag for all situations is not always feasible, and
regularization terms can be difficult to tune. It would be ideal to create an
algorithm that does not have any of the aforementioned drawbacks. Thus, we
propose a new set of statistics for exemplar based texture synthesis based on
Sliced Wasserstein Loss and create a multi-scale algorithm to synthesize
textures without a user-added spatial tag. Lastly, we study the ability of our
proposed algorithm to capture long range constraints in images and compare our
results to other exemplar-based neural texture synthesis algorithms.
- Abstract(参考訳): 過去10年間で、先進的なテクスチャ合成アルゴリズムは、深層畳み込みニューラルネットワークの統計と一致することで、パフォーマンスが大幅に向上した。
しかし、これらのアルゴリズムは、画像の長い範囲の制約を捉えるために、正規化項またはユーザー付加空間タグを必要とする。
すべての状況でユーザ追加の空間タグにアクセスすることは必ずしも不可能であり、正規化用語をチューニングすることは困難である。
上記の欠点を一切持たないアルゴリズムを作成するのが理想的でしょう。
そこで本研究では,スライスドワッサースタイン損失に基づくテクスチャ合成のための新しい統計値セットを提案し,ユーザ付加空間タグを使わずにテクスチャを合成するマルチスケールアルゴリズムを提案する。
最後に,提案アルゴリズムが画像の長距離制約をキャプチャし,他の例に基づくテクスチャ合成アルゴリズムと比較する能力について検討した。
関連論文リスト
- Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Temporally-Consistent Surface Reconstruction using Metrically-Consistent
Atlases [131.50372468579067]
そこで本稿では,時間変化点雲列から時間一貫性のある面列を復元する手法を提案する。
我々は、再構成された表面をニューラルネットワークによって計算されたアトラスとして表現し、フレーム間の対応性を確立することができる。
当社のアプローチは、いくつかの挑戦的なデータセットにおいて、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2021-11-12T17:48:25Z) - Synbols: Probing Learning Algorithms with Synthetic Datasets [112.45883250213272]
Synbolsは、低解像度画像にレンダリングされた潜在機能のリッチな構成で、新しいデータセットを高速に生成するツールである。
ツールの高レベルインターフェースは、潜在機能で新しいディストリビューションを高速に生成するための言語を提供する。
Synbolsの汎用性を示すために,各種学習環境における標準学習アルゴリズムの限界と欠陥を識別するために,本手法を用いる。
論文 参考訳(メタデータ) (2020-09-14T13:03:27Z) - High resolution neural texture synthesis with long range constraints [1.9336815376402716]
長距離依存を考慮に入れた,シンプルなマルチレゾリューションフレームワークを提案する。
追加の統計的制約は、強い規則性を持つテクスチャの再現をさらに改善する。
実験は、高解像度テクスチャのためのマルチスケールスキームの関心と、それを通常のテクスチャのための追加制約と組み合わせることの関心を示している。
論文 参考訳(メタデータ) (2020-08-04T20:11:27Z) - Perceptron Synthesis Network: Rethinking the Action Scale Variances in
Videos [48.57686258913474]
ビデオアクション認識は、固定サイズの3Dカーネルを積み重ねたCNNによって部分的に解決されている。
データから最適なスケールのカーネルを学習することを提案する。
固定サイズのカーネルの袋からカーネルを生成するために,テキスト分割パーセプトロンシンセサイザーを提案する。
論文 参考訳(メタデータ) (2020-07-22T14:22:29Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - A Generative Model for Texture Synthesis based on Optimal Transport
between Feature Distributions [8.102785819558978]
任意の大きさの新しいテクスチャをオンザフライで合成できるフィードフォワードニューラルネットワークを、我々のフレームワークを使って学習する方法を示す。
我々のフレームワークを使ってフィードフォワードニューラルネットワークを学習し、任意のサイズの新しいテクスチャを高速に合成する方法を示します。
論文 参考訳(メタデータ) (2020-06-19T13:32:55Z) - A Sliced Wasserstein Loss for Neural Texture Synthesis [10.093662416275693]
本稿では,物体認識に最適化された畳み込みニューラルネットワークの特徴アクティベーションから抽出した統計値に基づいて,テクスチャ損失を計算する問題に対処する。
Sliced Wasserstein DistanceをGram-matrix損失の代替として推進することを目的としています。
論文 参考訳(メタデータ) (2020-06-12T14:37:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。