論文の概要: Graph2Pix: A Graph-Based Image to Image Translation Framework
- arxiv url: http://arxiv.org/abs/2108.09752v1
- Date: Sun, 22 Aug 2021 15:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:43:56.480127
- Title: Graph2Pix: A Graph-Based Image to Image Translation Framework
- Title(参考訳): Graph2Pix: グラフベースの画像変換フレームワーク
- Authors: Dilara Gokay, Enis Simsar, Efehan Atici, Alper Ahmetoglu, Atif Emre
Yuksel, Pinar Yanardag
- Abstract要約: 画像を生成するためのグラフベース画像変換フレームワークを提案する。
私たちは人気のクリエイティビティプラットフォームであるArtbreederから収集されたリッチなデータを使用します。
この構造に着想を得て、グラフと対応する画像を入力として取り出し、出力として単一の画像を生成する、Graph2Pixと呼ばれる新しいグラフから画像への変換モデルを提案する。
- 参考スコア(独自算出の注目度): 0.019573380763700708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a graph-based image-to-image translation framework
for generating images. We use rich data collected from the popular creativity
platform Artbreeder (http://artbreeder.com), where users interpolate multiple
GAN-generated images to create artworks. This unique approach of creating new
images leads to a tree-like structure where one can track historical data about
the creation of a particular image. Inspired by this structure, we propose a
novel graph-to-image translation model called Graph2Pix, which takes a graph
and corresponding images as input and generates a single image as output. Our
experiments show that Graph2Pix is able to outperform several image-to-image
translation frameworks on benchmark metrics, including LPIPS (with a 25%
improvement) and human perception studies (n=60), where users preferred the
images generated by our method 81.5% of the time. Our source code and dataset
are publicly available at https://github.com/catlab-team/graph2pix.
- Abstract(参考訳): 本稿では,画像生成のためのグラフベース画像変換フレームワークを提案する。
私たちは人気のあるクリエイティビティプラットフォームであるartbreeder(http://artbreeder.com)から収集されたリッチなデータを使用します。
新しい画像を作成するこのユニークなアプローチは、特定の画像の作成に関する履歴データを追跡する木のような構造につながる。
この構造に着想を得て、グラフと対応する画像を入力として取り出し、出力として単一の画像を生成する、Graph2Pixと呼ばれる新しいグラフから画像への変換モデルを提案する。
実験の結果, LPIPS (25%改善) や人間の知覚研究 (n=60) など, ベンチマーク指標を用いた画像から画像への変換フレームワークでは, ユーザが81.5%の時間で生成した画像が好まれることがわかった。
ソースコードとデータセットはhttps://github.com/catlab-team/graph2pixで公開されている。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - Pixel-wise Graph Attention Networks for Person Re-identification [18.662170017063286]
グラフ畳み込みネットワーク(GCN)は不規則データを扱うために広く使われている。
構造化データ(画像など)にGCNを適用する方法については、まだ深く研究されていない。
本稿では,画像特徴抽出におけるグラフアテンションネットワーク(GAT)の適用について検討する。
論文 参考訳(メタデータ) (2023-07-18T12:12:42Z) - FACTUAL: A Benchmark for Faithful and Consistent Textual Scene Graph
Parsing [66.70054075041487]
画像キャプションをシーングラフに変換する既存のシーングラフは、しばしば2種類のエラーに悩まされる。
まず、生成されたシーングラフはキャプションや対応する画像の真の意味を捉えず、忠実さの欠如をもたらす。
第二に、生成されたシーングラフは一貫性が高く、同じセマンティクスは異なるアノテーションで表される。
論文 参考訳(メタデータ) (2023-05-27T15:38:31Z) - Transformer-based Image Generation from Scene Graphs [11.443097632746763]
グラフ構造化シーン記述は、生成した画像の合成を制御するために、生成モデルで効率的に使用することができる。
従来のアプローチは、グラフ畳み込みネットワークと、レイアウト予測と画像生成のための逆法の組み合わせに基づいている。
グラフ情報の符号化にマルチヘッドアテンションを用いることにより,サンプルデータの品質が向上することを示す。
論文 参考訳(メタデータ) (2023-03-08T14:54:51Z) - Diffusion-Based Scene Graph to Image Generation with Masked Contrastive
Pre-Training [112.94542676251133]
画像とのアライメントを直接最適化することで,シーングラフの埋め込みを学習する。
具体的には,シーングラフからグローバル情報とローカル情報の両方を抽出するエンコーダを事前訓練する。
SGDiffと呼ばれる結果の方法は、シーングラフノードと接続を変更することによって生成された画像のセマンティックな操作を可能にする。
論文 参考訳(メタデータ) (2022-11-21T01:11:19Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - CIGLI: Conditional Image Generation from Language & Image [5.159265382427163]
我々はCIGLI: Conditional Image Generation from Language and Imageを提案する。
テキスト画像生成のようにテキストに基づいて画像を生成する代わりに、このタスクでは、テキスト記述と画像プロンプトから画像を生成する必要がある。
論文 参考訳(メタデータ) (2021-08-20T00:58:42Z) - Image Scene Graph Generation (SGG) Benchmark [58.33119409657256]
画像シーングラフ生成(オブジェクト、関係検出)への関心が高まっている。
優れたベンチマークが欠如しているため、異なるシーングラフ生成モデルの報告結果と直接比較することができない。
我々は,マスマルクン・ベンチマークといくつかの人気モデルに基づく,待望のシーングラフ生成ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-07-27T05:10:09Z) - cGANs for Cartoon to Real-life Images [0.4724825031148411]
このプロジェクトは、漫画化された画像からなるデータセットに適用することによって、Pix2Pixモデルの堅牢性を評価することを目指している。
ネットワークを訓練して、漫画化された画像から実際の画像を生成することができるはずです。
論文 参考訳(メタデータ) (2021-01-24T20:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。