論文の概要: Visualizing Semiotics in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2303.12731v1
- Date: Thu, 9 Mar 2023 05:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 02:58:43.280453
- Title: Visualizing Semiotics in Generative Adversarial Networks
- Title(参考訳): ジェネレーティブ・アドバイサル・ネットワークにおけるセミオティックスの可視化
- Authors: Sabrina Osmany
- Abstract要約: 画像の色調や彩度などの物理的属性を修正できるのと同じように、非物理的、抽象的な特性も変更可能であることを示す。
例えば、客室乗務員の制服のデザインは、より「アラート」、より「アスタール」、より「実践的」に見えるように変更することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We perform a set of experiments to demonstrate that images generated using a
Generative Adversarial Network can be modified using 'semiotics.' We show that
just as physical attributes such as the hue and saturation of an image can be
modified, so too can its non-physical, abstract properties using our method.
For example, the design of a flight attendant's uniform may be modified to look
more 'alert,' less 'austere,' or more 'practical.' The form of a house can be
modified to appear more 'futuristic,' a car more 'friendly' a pair of sneakers,
'evil.' Our method uncovers latent visual iconography associated with the
semiotic property of interest, enabling a process of visual form-finding using
abstract concepts. Our approach is iterative and allows control over the degree
of attribute presence and can be used to aid the design process to yield
emergent visual concepts.
- Abstract(参考訳): そこで我々は,ジェネレーティブ・アドバイサル・ネットワークを用いて生成した画像が「セミティックス」を用いて修正可能であることを示す実験を行った。
画像の彩度や彩度などの物理的属性も変更可能であることを示し,その非物理的で抽象的な特性も本手法で実現可能であることを示した。
例えば、客室乗務員の制服のデザインは、より「アラート」、より「アスタール」、より「実践的」に見えるように変更することができる。
家の形式は、より「未来的」に見えるように変更することができ、スニーカー「エビル」よりも「フレンドリー」な車である。
提案手法は,興味のセミオティックな性質に付随する潜在視覚図像を解明し,抽象概念を用いた視覚形態検索のプロセスを実現する。
我々のアプローチは反復的であり、属性の存在度を制御でき、設計プロセスが創発的な視覚概念を生み出すのを助けるために使用できる。
関連論文リスト
- FreeCompose: Generic Zero-Shot Image Composition with Diffusion Prior [50.0535198082903]
我々は,複数の入力イメージを単一のコヒーレントなイメージに統合する,新しい画像合成手法を提案する。
本稿では, 大規模事前学習拡散モデルに内在する強力な生成的前駆体を利用して, 汎用画像合成を実現する可能性を示す。
論文 参考訳(メタデータ) (2024-07-06T03:35:43Z) - Diffusion Self-Guidance for Controllable Image Generation [106.59989386924136]
自己誘導(Self-guidance)は、拡散モデルの内部表現を導くことによって、生成された画像に対するより深い制御を提供する。
課題の画像操作を行うために、簡単なプロパティセットをいかに構成できるかを示す。
また,実画像の編集に自己指導が有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T17:59:56Z) - Multimodal Face Synthesis from Visual Attributes [85.87796260802223]
本稿では,マルチモーダル顔画像を保存するIDを同時に合成する新たな生成対向ネットワークを提案する。
実画像と偽画像の区別を行う識別装置にマルチモーダルストレッチインモジュールを導入。
論文 参考訳(メタデータ) (2021-04-09T13:47:23Z) - One-shot Face Reenactment Using Appearance Adaptive Normalization [30.615671641713945]
本稿では,一発顔再現のための新しい生成的対向ネットワークを提案する。
1枚の顔画像を別のポーズ・アンド・エクスプレッションにアニメーションし、元の外観を保ちます。
論文 参考訳(メタデータ) (2021-02-08T03:36:30Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Cross-View Image Synthesis with Deformable Convolution and Attention
Mechanism [29.528402825356398]
本稿では、変形可能な畳み込みとアテンション機構に基づくGAN(Generative Adversarial Networks)を用いて、クロスビュー画像合成の問題を解決することを提案する。
シーンの外観や意味情報を他の視点から理解し、変換することは困難であり、U-netネットワークにおける変形畳み込みを用いて、異なるスケールのオブジェクトの特徴を抽出するネットワークの能力を向上させる。
論文 参考訳(メタデータ) (2020-07-20T03:08:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。