論文の概要: Bipartite Graph Reasoning GANs for Person Image Generation
- arxiv url: http://arxiv.org/abs/2008.04381v2
- Date: Thu, 20 Aug 2020 22:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:48:10.449403
- Title: Bipartite Graph Reasoning GANs for Person Image Generation
- Title(参考訳): 人物画像生成のための二部グラフ推論GAN
- Authors: Hao Tang, Song Bai, Philip H.S. Torr, Nicu Sebe
- Abstract要約: 本稿では,難易度の高い人物画像生成タスクのための新しいBipartite Graph Reasoning GAN(BiGraphGAN)を提案する。
提案するグラフ生成器は,主にポーズ・ツー・プレイスとポーズ・ツー・イメージの関係をモデル化する2つの新しいブロックから構成される。
- 参考スコア(独自算出の注目度): 159.00654368677513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel Bipartite Graph Reasoning GAN (BiGraphGAN) for the
challenging person image generation task. The proposed graph generator mainly
consists of two novel blocks that aim to model the pose-to-pose and
pose-to-image relations, respectively. Specifically, the proposed Bipartite
Graph Reasoning (BGR) block aims to reason the crossing long-range relations
between the source pose and the target pose in a bipartite graph, which
mitigates some challenges caused by pose deformation. Moreover, we propose a
new Interaction-and-Aggregation (IA) block to effectively update and enhance
the feature representation capability of both person's shape and appearance in
an interactive way. Experiments on two challenging and public datasets, i.e.,
Market-1501 and DeepFashion, show the effectiveness of the proposed BiGraphGAN
in terms of objective quantitative scores and subjective visual realness. The
source code and trained models are available at
https://github.com/Ha0Tang/BiGraphGAN.
- Abstract(参考訳): 本稿では,難易度の高い人物画像生成タスクのための新しいBipartite Graph Reasoning GAN(BiGraphGAN)を提案する。
提案するグラフ生成器は,ポーズ-ポーズ関係とポーズ-イメージ関係をそれぞれモデル化する2つの新しいブロックから構成される。
特に,提案する二部グラフ推論(bgr)ブロックは,二部グラフにおけるソースポーズとターゲットポーズとの間の長距離関係を推論することを目的としており,ポーズ変形に起因する課題を軽減している。
さらに,インタラクション・アンド・アグリゲーション(IA)ブロックを新たに提案し,対話的な方法で人物の形状と外観の特徴表現能力を効果的に更新し,強化する。
Market-1501とDeepFashionの2つの挑戦的かつ公開的なデータセットの実験は、客観的な定量的スコアと主観的な視覚的現実性の観点から提案されたBiGraphGANの有効性を示している。
ソースコードとトレーニングされたモデルはhttps://github.com/ha0tang/bigraphganで入手できる。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - Joint Generative Modeling of Scene Graphs and Images via Diffusion
Models [37.788957749123725]
共同シーングラフ - 画像生成という,新しい生成タスクを提案する。
本稿では,隣接行列と不均一なノードとエッジ属性を併用した新しい拡散モデルDiffuseSGを提案する。
グラフ変換器をデノイザとし、DiffuseSGは連続空間におけるシーングラフ表現を連続的にデノイズし、最終表現を識別してクリーンなシーングラフを生成する。
論文 参考訳(メタデータ) (2024-01-02T10:10:29Z) - Graph Transformer GANs for Graph-Constrained House Generation [223.739067413952]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
GTGANは、グラフ制約のある住宅生成タスクにおいて、エンドツーエンドで効率的なグラフノード関係を学習する。
論文 参考訳(メタデータ) (2023-03-14T20:35:45Z) - Bipartite Graph Reasoning GANs for Person Pose and Facial Image
Synthesis [201.39323496042527]
本稿では、人物のポーズと顔画像合成という2つの課題に対して、生成的敵対ネットワーク(BiGraphGAN)を推論する新しい二部グラフを提案する。
提案するグラフ生成器は,ポーズ・ツー・ポーズ関係とポーズ・ツー・イメージ関係をモデル化する2つの新しいブロックから構成される。
論文 参考訳(メタデータ) (2022-11-12T18:27:00Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - Heterogeneous Graph Collaborative Filtering [25.05199172369437]
本稿では,ユーザ間インタラクションを異種グラフとしてモデル化し,ユーザ間のインタラクションを示すだけでなく,ユーザ間のインタラクションの類似性を示すエッジをモデル化する。
我々は、相互作用信号と類似信号の両方を明示的にキャプチャできるGCNベースのフレームワークであるヘテロジニアスグラフ協調フィルタリング(HGCF)を開発した。
論文 参考訳(メタデータ) (2020-11-13T08:34:53Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。