論文の概要: Low Distortion Block-Resampling with Spatially Stochastic Networks
- arxiv url: http://arxiv.org/abs/2006.05394v2
- Date: Thu, 10 Dec 2020 18:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:59:27.689050
- Title: Low Distortion Block-Resampling with Spatially Stochastic Networks
- Title(参考訳): 空間確率ネットワークを用いた低歪みブロックサンプリング
- Authors: Sarah Jane Hong, Martin Arjovsky, Darryl Barnhart, Ian Thompson
- Abstract要約: 我々は、可能な限り多様な古い画像から新しい画像を生成する問題を定式化し、攻撃する。
これは、生成モデリングで見られる典型的な状況を含み、生成したデータの一部に満足していますが、他の人を再サンプリングしたいと考えています。
この問題に対処するために、我々は最適な条件付き無条件生成モデルから構築し、新しいネットワークアーキテクチャ、トレーニング手順、および画像の一部を必要に応じて再サンプリングするためのアルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We formalize and attack the problem of generating new images from old ones
that are as diverse as possible, only allowing them to change without
restrictions in certain parts of the image while remaining globally consistent.
This encompasses the typical situation found in generative modelling, where we
are happy with parts of the generated data, but would like to resample others
("I like this generated castle overall, but this tower looks unrealistic, I
would like a new one"). In order to attack this problem we build from the best
conditional and unconditional generative models to introduce a new network
architecture, training procedure, and algorithm for resampling parts of the
image as desired.
- Abstract(参考訳): 私たちは、可能な限り多様な古い画像から新しい画像を生成する問題を形式化し、攻撃します。
これは生成的モデリングで見られる典型的な状況を含み、生成したデータの一部に満足しているが、他のものを再サンプリングしたい(この生成された城は全体として好きだが、この塔は非現実的に見える。
この問題に対処するために、我々は最適な条件付き無条件生成モデルから構築し、新しいネットワークアーキテクチャ、トレーニング手順、および画像の一部を必要に応じて再サンプリングするためのアルゴリズムを導入する。
関連論文リスト
- CubeDiff: Repurposing Diffusion-Based Image Models for Panorama Generation [59.257513664564996]
テキストプロンプトや画像から360度パノラマを生成する新しい手法を提案する。
我々は多視点拡散モデルを用いて立方体の6つの面を合成する。
本モデルでは,テキストのきめ細かい制御,高解像度パノラマ画像の生成,トレーニングセットを越えた一般化を実現している。
論文 参考訳(メタデータ) (2025-01-28T18:59:49Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - GeoPos: A Minimal Positional Encoding for Enhanced Fine-Grained Details in Image Synthesis Using Convolutional Neural Networks [0.0]
複雑な幾何学的特徴を再現する画像生成モデルの永続的不備は、ほぼ10年間にわたって進行中の問題であった。
本稿では,この問題を幾何的能力の畳み込み層を拡大することにより緩和する方法について述べる。
本研究では,拡散モデル,GAN,変分オートエンコーダ(VAE)によって生成された画像の品質を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-01-03T19:27:20Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - StackGAN: Facial Image Generation Optimizations [0.0]
現在の最先端のフォトリアリスティック・ジェネレータは計算コストが高く、不安定な訓練過程を伴い、高次元空間で異なる実空間と合成分布を持つ。
そこで我々は,条件付きジェネレータを組み込んだStackGANアーキテクチャの変種を提案する。
我々のモデルはCelebA顔画像データセットを用いて訓練され、エッジ画像のFr'echet Inception Distance(FID)スコア73、合成エッジ画像のグレースケール画像のスコア59を達成した。
論文 参考訳(メタデータ) (2021-08-30T15:04:47Z) - Image Inpainting Using Wasserstein Generative Adversarial Imputation
Network [0.0]
本稿では,Wasserstein Generative Adversarial Imputation Networkに基づく画像インペイントモデルを提案する。
普遍計算モデルは、十分な品質で欠落の様々なシナリオを扱うことができる。
論文 参考訳(メタデータ) (2021-06-23T05:55:07Z) - Augmentation-Interpolative AutoEncoders for Unsupervised Few-Shot Image
Generation [45.380129419065746]
Augmentation-Interpolative AutoEncodersは、いくつかの参照画像から新しいオブジェクトの現実的なイメージを合成する。
我々の手順はシンプルで軽量であり、広範囲に一般化されており、訓練中にカテゴリラベルやその他の監督を必要としない。
論文 参考訳(メタデータ) (2020-11-25T21:18:55Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。