論文の概要: Coevolving Artistic Images Using OMNIREP
- arxiv url: http://arxiv.org/abs/2401.11167v1
- Date: Sat, 20 Jan 2024 08:32:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:43:13.968231
- Title: Coevolving Artistic Images Using OMNIREP
- Title(参考訳): OMNIREPを用いた芸術画像の共進化
- Authors: Moshe Sipper, Jason H. Moore, Ryan J. Urbanowicz
- Abstract要約: OMNIREP フレームワークは進化学の分野においてうまく適用可能であることを示す。
具体的には、画像位置を符号化する表現と、これらの位置を事前に定義された3つの形状に変換するインタプリタを併用する。
本稿では,本手法により生成した画像の特異な変化のサンプルを紹介する。
- 参考スコア(独自算出の注目度): 2.402878726843412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have recently developed OMNIREP, a coevolutionary algorithm to discover
both a representation and an interpreter that solve a particular problem of
interest. Herein, we demonstrate that the OMNIREP framework can be successfully
applied within the field of evolutionary art. Specifically, we coevolve
representations that encode image position, alongside interpreters that
transform these positions into one of three pre-defined shapes (chunks,
polygons, or circles) of varying size, shape, and color. We showcase a sampling
of the unique image variations produced by this approach.
- Abstract(参考訳): 我々は最近OMNIREPを開発した。OMNIREPは、特定の関心事の問題を解決する表現とインタプリタの両方を見つけるための共進化アルゴリズムである。
本稿では,進化学の分野においてOMNIREPフレームワークをうまく適用できることを実証する。
具体的には、画像の位置をエンコードする表現と、これらの位置を、サイズ、形状、色が異なる3つの事前定義された形状(チャンク、多角形、円)に変換するインタプリタを結合する。
このアプローチによって生成されたユニークな画像のバリエーションのサンプルを紹介する。
関連論文リスト
- Context and Geometry Aware Voxel Transformer for Semantic Scene Completion [7.147020285382786]
視覚に基づくセマンティックシーンコンプリート(SSC)は、様々な3次元知覚タスクに広く応用されているため、多くの注目を集めている。
既存のスパース・トゥ・デンス・アプローチでは、様々な入力画像間で共有コンテキストに依存しないクエリを使用するのが一般的である。
セマンティックシーン補完を実現するためにCGFormerというニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2024-05-22T14:16:30Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Transformer-based Image Generation from Scene Graphs [11.443097632746763]
グラフ構造化シーン記述は、生成した画像の合成を制御するために、生成モデルで効率的に使用することができる。
従来のアプローチは、グラフ畳み込みネットワークと、レイアウト予測と画像生成のための逆法の組み合わせに基づいている。
グラフ情報の符号化にマルチヘッドアテンションを用いることにより,サンプルデータの品質が向上することを示す。
論文 参考訳(メタデータ) (2023-03-08T14:54:51Z) - Shape-Pose Disentanglement using SE(3)-equivariant Vector Neurons [59.83721247071963]
本研究では,点雲を標準形状表現に符号化するための教師なし手法を提案する。
エンコーダは安定で一貫性があり、形状のエンコーダは純粋にポーズ不変である。
抽出された回転と変換は、同じクラスの異なる入力形状を共通の標準ポーズに意味的に整合させることができる。
論文 参考訳(メタデータ) (2022-04-03T21:00:44Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Encoding in Style: a StyleGAN Encoder for Image-to-Image Translation [42.62624182740679]
一般的な画像から画像への変換フレームワークであるピクセル2スタイル2ピクセル(pSp)を提案する。
我々のpSpフレームワークは、事前訓練されたStyleGANジェネレータに供給される一連のスタイルベクトルを直接生成する新しいエンコーダネットワークに基づいている。
論文 参考訳(メタデータ) (2020-08-03T15:30:38Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。