論文の概要: Physical Context and Timing Aware Sequence Generating GANs
- arxiv url: http://arxiv.org/abs/2110.04077v1
- Date: Tue, 28 Sep 2021 07:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 05:09:10.145279
- Title: Physical Context and Timing Aware Sequence Generating GANs
- Title(参考訳): GANを生成する物理コンテキストとタイミング認識シーケンス
- Authors: Hayato Futase, Tomoki Tsujimura, Tetsuya Kajimoto, Hajime Kawarazaki,
Toshiyuki Suzuki, Makoto Miwa, Yutaka Sasaki
- Abstract要約: 本稿では,PCTGAN(Physical Context and Timing aware sequence generating GAN)という新しいGANを提案する。
PCTGANは、2つの画像間の特定のタイミングで、その背景の物理的なコンテキストを考慮して、シーケンス内の画像を生成する。
時系列画像の生成にはタイミングと物理的文脈の両方が有効であることを示す。
- 参考スコア(独自算出の注目度): 6.770042411181222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown remarkable successes in
generating realistic images and interpolating changes between images. Existing
models, however, do not take into account physical contexts behind images in
generating the images, which may cause unrealistic changes. Furthermore, it is
difficult to generate the changes at a specific timing and they often do not
match with actual changes. This paper proposes a novel GAN, named Physical
Context and Timing aware sequence generating GANs (PCTGAN), that generates an
image in a sequence at a specific timing between two images with considering
physical contexts behind them. Our method consists of three components: an
encoder, a generator, and a discriminator. The encoder estimates latent vectors
from the beginning and ending images, their timings, and a target timing. The
generator generates images and the physical contexts at the beginning, ending,
and target timing from the corresponding latent vectors. The discriminator
discriminates whether the generated images and contexts are real or not. In the
experiments, PCTGAN is applied to a data set of sequential changes of shapes in
die forging processes. We show that both timing and physical contexts are
effective in generating sequential images.
- Abstract(参考訳): generative adversarial networks (gans) は、現実的な画像の生成と画像間の変化を補間することに成功した。
しかし、既存のモデルは、画像を生成する際の物理的なコンテキストを考慮していないため、非現実的な変化を引き起こす可能性がある。
さらに、特定のタイミングで変更を生成することは難しく、実際の変更と一致しないことが多い。
本稿では,2つの画像間の特定のタイミングで,その背景の物理的コンテキストを考慮した画像を生成する,PCTGAN(Physical Context and Timing aware sequence generated GAN)を提案する。
本手法は,エンコーダ,ジェネレータ,識別器の3つのコンポーネントから構成される。
エンコーダは、初期および終了画像、そのタイミング、および目標タイミングから潜在ベクトルを推定する。
生成器は、対応する潜在ベクトルから、開始、終了、および目標タイミングにおける画像及び物理コンテキストを生成する。
判別器は、生成された画像とコンテキストが本物か否かを判別する。
実験では, ダイ鍛造プロセスにおける形状の逐次変化のデータセットにPCTGANを適用した。
時系列画像の生成にはタイミングと物理的文脈の両方が有効であることを示す。
関連論文リスト
- Towards Accurate Image Coding: Improved Autoregressive Image Generation
with Dynamic Vector Quantization [73.52943587514386]
既存のベクトル量子化(VQ)ベースの自己回帰モデルは、2段階生成パラダイムに従う。
画像領域を可変長符号に符号化する動的量子化VAE(DQ-VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:05Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - IR-GAN: Image Manipulation with Linguistic Instruction by Increment
Reasoning [110.7118381246156]
Incrment Reasoning Generative Adversarial Network (IR-GAN)は、画像における視覚的インクリメントと命令における意味的インクリメントとの整合性を推論することを目的としている。
まず,単語レベルと命令レベルの命令エンコーダを導入し,履歴関連命令からユーザの意図を意味的インクリメントとして学習する。
第2に、対象画像を生成するために、意味的インクリメントの表現をソースイメージに組み込んで、ソースイメージが補助的参照の役割を担っている。
論文 参考訳(メタデータ) (2022-04-02T07:48:39Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Using latent space regression to analyze and leverage compositionality
in GANs [33.381584322411626]
GANの組成特性を理解するためのプローブとして潜在空間への回帰を研究する。
reressorとプリトレーニングされたジェネレータを組み合わせることで、強いイメージを事前に提供し、複合イメージを作成できることが分かりました。
回帰アプローチは,潜在空間での直接編集と比較して,個々の画像部分の局所的な編集を可能にする。
論文 参考訳(メタデータ) (2021-03-18T17:58:01Z) - Unsupervised Image Transformation Learning via Generative Adversarial
Networks [40.84518581293321]
GAN(Generative Adversarial Networks)を用いた画像集合から基底変換を学習して画像変換問題を研究する。
本稿では,生成元と識別器が共有する変換空間に画像を投影する,教師なし学習フレームワークTrGANを提案する。
論文 参考訳(メタデータ) (2021-03-13T17:08:19Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation [17.205434613674104]
我々はCDGAN(Cyclic Discriminative Generative Adversarial Networks)と呼ばれる新しい画像間変換ネットワークを導入する。
提案したCDGANは、サイクル画像に新たな識別器ネットワークを組み込むことにより、高品質でリアルな画像を生成する。
定量および定性的な結果を解析し、最先端の手法と比較する。
論文 参考訳(メタデータ) (2020-01-15T05:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。