論文の概要: Collaborative Interactive Evolution of Art in the Latent Space of Deep Generative Models
- arxiv url: http://arxiv.org/abs/2403.19620v1
- Date: Thu, 28 Mar 2024 17:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 15:14:42.389969
- Title: Collaborative Interactive Evolution of Art in the Latent Space of Deep Generative Models
- Title(参考訳): 深部生成モデルの潜在空間における芸術の協調的相互進化
- Authors: Ole Hall, Anil Yaman,
- Abstract要約: 私たちはまず,Creative Adversarial Networks(CANs)と呼ばれるアーキテクチャを用いて,創造的なイメージの制作を訓練するGANを採用する。
次に、画像を発見するためにモデルの潜在空間内をナビゲートするために進化的アプローチを用いる。
我々は、自動美学と協調的対話的人間評価指標を用いて、生成された画像を評価する。
- 参考スコア(独自算出の注目度): 1.4425878137951238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown great success in generating high quality images and are thus used as one of the main approaches to generate art images. However, usually the image generation process involves sampling from the latent space of the learned art representations, allowing little control over the output. In this work, we first employ GANs that are trained to produce creative images using an architecture known as Creative Adversarial Networks (CANs), then, we employ an evolutionary approach to navigate within the latent space of the models to discover images. We use automatic aesthetic and collaborative interactive human evaluation metrics to assess the generated images. In the human interactive evaluation case, we propose a collaborative evaluation based on the assessments of several participants. Furthermore, we also experiment with an intelligent mutation operator that aims to improve the quality of the images through local search based on an aesthetic measure. We evaluate the effectiveness of this approach by comparing the results produced by the automatic and collaborative interactive evolution. The results show that the proposed approach can generate highly attractive art images when the evolution is guided by collaborative human feedback.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は,高品質な画像を生成する上で大きな成功を収めている。
しかしながら、画像生成プロセスは通常、学習されたアート表現の潜在空間からのサンプリングを伴い、出力をほとんど制御できない。
本研究では,まず,Creative Adversarial Networks (CANs) と呼ばれるアーキテクチャを用いて,創造的なイメージを生成するために訓練されたGANを用いて,モデルの潜在空間内をナビゲートして画像を発見する進化的アプローチを採用する。
我々は、自動的美学と協調的対話的人間評価指標を用いて、生成された画像を評価する。
対話型評価では,複数参加者の評価に基づく協調的評価を提案する。
さらに,美的尺度に基づく局所探索により画像の品質向上を図る知的突然変異演算子についても実験を行った。
自動的・協調的対話的進化の結果を比較することにより,本手法の有効性を評価する。
提案手法は,人間の協調的フィードバックによって進化が導かれると,非常に魅力的なアートイメージを生成できることを示す。
関連論文リスト
- KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
テキスト・画像生成モデルにおける実体の忠実度に関する系統的研究を行う。
我々はランドマークの建物、航空機、植物、動物など、幅広い現実世界の視覚的実体を生成する能力に焦点をあてる。
その結果、最も高度なテキスト・画像モデルでさえ、正確な視覚的詳細を持つエンティティを生成できないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - Research on Optimization of Natural Language Processing Model Based on Multimodal Deep Learning [0.036651088217486416]
本研究の目的は,アテンション機構とマルチモーダルデータに基づく画像表現の研究である。
モデルに複数のパターン層を追加することで、画像コンテンツのセマンティック層と隠れ層が統合される。
ワードベクトルはWord2Vec法で定量化され、畳み込みニューラルネットワークを埋め込んだワードで評価される。
論文 参考訳(メタデータ) (2024-06-13T06:03:59Z) - Anomaly Score: Evaluating Generative Models and Individual Generated Images based on Complexity and Vulnerability [21.355484227864466]
生成した画像の表現空間と入力空間の関係について検討する。
異常スコア(AS)と呼ばれる画像生成モデルを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-17T07:33:06Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - FABRIC: Personalizing Diffusion Models with Iterative Feedback [0.0]
視覚コンテンツ生成が機械学習によってますます推進される時代において、人間のフィードバックを生成モデルに統合することは、ユーザエクスペリエンスと出力品質を高める重要な機会となる。
FABRICは,広範に普及している拡散モデルに適用可能な学習自由アプローチであり,最も広く使用されているアーキテクチャにおける自己認識層を利用して,フィードバック画像の集合に拡散過程を条件付ける。
本研究では,複数ラウンドの反復的フィードバックに対して,任意のユーザの好みを暗黙的に最適化することで,生成結果が改良されることを示す。
論文 参考訳(メタデータ) (2023-07-19T17:39:39Z) - Let's ViCE! Mimicking Human Cognitive Behavior in Image Generation
Evaluation [96.74302670358145]
生成/編集された画像と対応するプロンプト/インストラクションの整合性を評価するために,視覚概念評価(ViCE)の自動手法を提案する。
ViCEは、Large Language Models(LLM)とVisual Question Answering(VQA)の強みを統合パイプラインに統合し、品質評価において人間の認知プロセスを再現することを目指している。
論文 参考訳(メタデータ) (2023-07-18T16:33:30Z) - Augmenting Character Designers Creativity Using Generative Adversarial
Networks [0.0]
GAN(Generative Adversarial Networks)は、さまざまな分野の研究者の注目を集めている。
しかし、近年のGANはリアリズムに重点を置いているが、超現実的な出力を生成することはいくつかの領域にとって優先事項ではない。
本稿では,異なるGANアーキテクチャと,新しいビジュアルキャラクタデータセットをスクラッチからトレーニングした場合のパフォーマンスを比較した。
また、転送学習やデータ拡張といった代替手法も検討し、計算資源の制限を克服する。
論文 参考訳(メタデータ) (2023-05-28T10:52:03Z) - Improving Synthetically Generated Image Detection in Cross-Concept
Settings [20.21594285488186]
我々は、例えば、人間の顔に検出器を訓練する際に、様々な概念クラスをまたがって一般化するという課題に焦点をあてる。
本稿では,現実的な合成画像上での学習により,検出器の堅牢性を向上できるという前提に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-24T12:45:00Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning [64.6217849133164]
創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2022-03-01T15:07:14Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。