論文の概要: Adversarial Synthesis of Human Pose from Text
- arxiv url: http://arxiv.org/abs/2005.00340v2
- Date: Fri, 16 Oct 2020 09:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:14:37.961851
- Title: Adversarial Synthesis of Human Pose from Text
- Title(参考訳): テキストからの人間のポーズの逆合成
- Authors: Yifei Zhang, Rania Briq, Julian Tanke, Juergen Gall
- Abstract要約: この研究は、人間レベルのテキスト記述から人間のポーズを合成することに焦点を当てている。
本稿では,条件付き生成逆数ネットワークに基づくモデルを提案する。
定性的かつ定量的な結果から、与えられたテキストと一致する可視的なポーズを合成できることを示す。
- 参考スコア(独自算出の注目度): 18.02001711736337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on synthesizing human poses from human-level text
descriptions. We propose a model that is based on a conditional generative
adversarial network. It is designed to generate 2D human poses conditioned on
human-written text descriptions. The model is trained and evaluated using the
COCO dataset, which consists of images capturing complex everyday scenes with
various human poses. We show through qualitative and quantitative results that
the model is capable of synthesizing plausible poses matching the given text,
indicating that it is possible to generate poses that are consistent with the
given semantic features, especially for actions with distinctive poses.
- Abstract(参考訳): この研究は、人間レベルのテキスト記述から人間のポーズを合成することに焦点を当てている。
本稿では,条件付き生成逆ネットワークに基づくモデルを提案する。
人文によるテキスト記述を条件とした2次元のポーズを生成するように設計されている。
モデルは、複雑な日常のシーンをさまざまな人間のポーズで捉えた画像からなるCOCOデータセットを用いて、訓練され、評価される。
定性的かつ定量的な結果から,モデルが与えられたテキストに適合する有理なポーズを合成できることを示し,特に特有なポーズを持つアクションに対して,与えられた意味的特徴に一致するポーズを生成可能であることを示す。
関連論文リスト
- PoseEmbroider: Towards a 3D, Visual, Semantic-aware Human Pose Representation [38.958695275774616]
検索方式で訓練された新しいトランスフォーマーモデルを導入し、上記のモダリティの組み合わせを任意の入力として利用できるようにする。
本稿では,(1)オプションのテキストキューによる画像からのSMPL回帰と(2)きめ細かな命令生成のタスクに対する,そのような埋め込みされたポーズ表現の可能性を示す。
論文 参考訳(メタデータ) (2024-09-10T14:09:39Z) - Diversifying Human Pose in Synthetic Data for Aerial-view Human Detection [16.42439177494448]
本研究では,空中視による人間検出のための合成データセットにおいて,人間のポーズを多様化するための枠組みを提案する。
提案手法では,ポーズ生成器を用いて新規ポーズのセットを構築し,既存の合成データセットの画像を変更して,新規ポーズを仮定する。
実験では、合成データがトレーニングにどのように使用されるか、あるいはデータサイズに関わらず、トレーニングでポーズの異なるデータセットを活用することにより、はるかに精度が向上することを示した。
論文 参考訳(メタデータ) (2024-05-24T21:08:27Z) - Generating Holistic 3D Human Motion from Speech [97.11392166257791]
同期音声を用いた3次元全体体メッシュの高品質データセットを構築した。
次に,顔,体,手が別々にモデル化される新しい音声合成フレームワークを定義する。
論文 参考訳(メタデータ) (2022-12-08T17:25:19Z) - PoseScript: Linking 3D Human Poses and Natural Language [38.85620213438554]
このデータセットは、6万以上の人間のポーズとリッチな人間アノテーションによる記述をペアリングする。
データセットのサイズを、データハングリー学習アルゴリズムと互換性のあるスケールに拡大するために、精巧なキャプションプロセスを提案する。
このプロセスは、3Dキーポイント上の単純だがジェネリックなルールのセットを使用して、"posecodes"と呼ばれる低レベルのポーズ情報を抽出する。
自動アノテーションでは、利用可能なデータの量は100kに増加し、人間のキャプションを微調整するための深いモデルを効果的に事前訓練することができる。
論文 参考訳(メタデータ) (2022-10-21T08:18:49Z) - TEMOS: Generating diverse human motions from textual descriptions [53.85978336198444]
テキスト記述から多種多様な人間の動作を生成するという課題に対処する。
本研究では,人間の動作データを用いた可変オートエンコーダ(VAE)トレーニングを利用したテキスト条件生成モデルTEMOSを提案する。
TEMOSフレームワークは,従来のような骨格に基づくアニメーションと,より表現力のあるSMPLボディモーションの両方を生成可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T14:53:06Z) - Hallucinating Pose-Compatible Scenes [55.064949607528405]
ポーズ条件付きシーン生成のための大規模生成対向ネットワークを提案する。
毎日の環境に1900万フレーム以上の人間がいる巨大なメタデータをキュレートします。
我々は、ポーズ互換シーンを人間の有無に関わらず幻覚化し、不整合シーンやポーズを可視化し、1つの生成された画像から別のシーンに人物を配置し、ポーズをアニメーションする様々な用途に、トレーニングされたモデルを活用する。
論文 参考訳(メタデータ) (2021-12-13T18:59:26Z) - Towards Better Adversarial Synthesis of Human Images from Text [19.743502366461982]
モデルの性能はCOCOデータセットで評価される。
画像合成フレームワークへの入力としてそのような形状を用いると、人間をリアルな人間の形で合成するネットワークが制限されることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:47:51Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Pose-Guided Human Animation from a Single Image in the Wild [83.86903892201656]
身体ポーズのシーケンスによって制御される人の単一の画像から人間のアニメーションを合成するための新しいポーズ転送方法を提案する。
既存のポーズ転送手法は、新しいシーンに適用する際に重要な視覚的アーティファクトを示す。
我々は,シルエット,衣料ラベル,テクスチャを予測する合成ニューラルネットワークを設計した。
我々は、テスト現場でネットワークを微調整することなく、時間的に一貫した方法で人物のアイデンティティと外観を保存できる人間のアニメーションを合成することができる。
論文 参考訳(メタデータ) (2020-12-07T15:38:29Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。