論文の概要: Exocentric to Egocentric Image Generation via Parallel Generative
Adversarial Network
- arxiv url: http://arxiv.org/abs/2002.03219v1
- Date: Sat, 8 Feb 2020 19:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:47:24.354583
- Title: Exocentric to Egocentric Image Generation via Parallel Generative
Adversarial Network
- Title(参考訳): 並列生成逆数ネットワークによるエゴセントリックな画像生成
- Authors: Gaowen Liu, Hao Tang, Hugo Latapie, Yan Yan
- Abstract要約: 近年,異なる視点から一視点の画像を生成するクロスビュー画像生成法が提案されている。
エゴセントリックな見方は、時としてエゴセントリックな見方と著しく異なるため、これは難しい課題です。
本稿では,エゴセントリックな画像を生成するための共有情報を学ぶために,新たなクロスサイクルロスを有する並列生成アドリアルネットワーク(P-GAN)を提案する。
- 参考スコア(独自算出の注目度): 23.620648497089825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-view image generation has been recently proposed to generate images of
one view from another dramatically different view. In this paper, we
investigate exocentric (third-person) view to egocentric (first-person) view
image generation. This is a challenging task since egocentric view sometimes is
remarkably different from exocentric view. Thus, transforming the appearances
across the two views is a non-trivial task. To this end, we propose a novel
Parallel Generative Adversarial Network (P-GAN) with a novel cross-cycle loss
to learn the shared information for generating egocentric images from
exocentric view. We also incorporate a novel contextual feature loss in the
learning procedure to capture the contextual information in images. Extensive
experiments on the Exo-Ego datasets show that our model outperforms the
state-of-the-art approaches.
- Abstract(参考訳): 近年,異なる視点から一視点の画像を生成するクロスビュー画像生成法が提案されている。
本稿では,エゴセントリック(3人称)視点からエゴセントリック(1人称)視点画像生成について検討する。
これは困難な課題であり、エゴセントリックな視点は時として、エクソセントリックな視点とは大きく異なる。
したがって、外観を2つのビューに変換するのは簡単ではない。
そこで本研究では,エゴセントリックな画像を生成するための共有情報を学ぶために,新たなサイクル損失を有する並列生成適応ネットワーク(P-GAN)を提案する。
また,画像中の文脈情報を取り込む学習手順に,新たな文脈的特徴損失を組み込む。
Exo-Egoデータセットの大規模な実験により、私たちのモデルは最先端のアプローチよりも優れています。
関連論文リスト
- Exocentric To Egocentric Transfer For Action Recognition: A Short Survey [25.41820386246096]
エゴセントリックな視覚は、カメラ装着者の視点からシーンを捉えます。
外見中心の視覚はシーン全体のコンテキストを捉えます。
エゴとエクソビューの併用モデリングは、次世代AIエージェントの開発に不可欠である。
論文 参考訳(メタデータ) (2024-10-27T22:38:51Z) - FSViewFusion: Few-Shots View Generation of Novel Objects [75.81872204650807]
本研究では,3次元前処理を伴わないビュー合成のための事前訓練された安定拡散モデルを提案する。
具体的には,Dreamboothという画像モデルを用いたパーソナライズされたテキストに基づく手法を提案する。
ビューの概念は、ビューが学習された元のオブジェクトの識別に関係なく、アンタングル化され、新しいオブジェクトに転送可能であることを確認します。
論文 参考訳(メタデータ) (2024-03-11T02:59:30Z) - Put Myself in Your Shoes: Lifting the Egocentric Perspective from
Exocentric Videos [66.46812056962567]
Exocentric-to-egocentric cross-view translationは、第三者(exocentric)の観点からアクターをキャプチャするビデオ録画に基づいて、アクターの1人(egocentric)ビューを生成することを目的としている。
そこで我々は,Exo2Egoという,翻訳過程を高次構造変換と画素レベルの幻覚の2段階に分解する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T01:00:00Z) - POV: Prompt-Oriented View-Agnostic Learning for Egocentric Hand-Object
Interaction in the Multi-View World [59.545114016224254]
人間は、手と物体の相互作用の第三者による観察をエゴセントリックな視点に変換するのに長けている。
本稿では,自我中心の動画をほとんど持たない視点適応を実現するための,Prompt-Oriented View-Agnostic Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T09:54:44Z) - SyncDreamer: Generating Multiview-consistent Images from a Single-view Image [59.75474518708409]
SyncDreamerと呼ばれる新しい拡散モデルが単一ビュー画像から複数ビュー一貫性のある画像を生成する。
実験の結果、SyncDreamerはさまざまなビューに対して高い一貫性を持つ画像を生成することがわかった。
論文 参考訳(メタデータ) (2023-09-07T02:28:04Z) - T-Person-GAN: Text-to-Person Image Generation with Identity-Consistency
and Manifold Mix-Up [16.165889084870116]
テキストのみに条件付けされた高解像度の人物画像を生成するためのエンドツーエンドアプローチを提案する。
2つの新しいメカニズムで人物画像を生成するための効果的な生成モデルを開発する。
論文 参考訳(メタデータ) (2022-08-18T07:41:02Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Cross-View Exocentric to Egocentric Video Synthesis [18.575642755375107]
クロスビュービデオ合成タスクは、あるビューの動画シーケンスを、別のビューから劇的に異なるビューから生成することを目的としている。
本稿では,空間情報と時間情報の両方を学習するために,2方向の空間的時間的注意融合生成適応ネットワーク(STA-GAN)を提案する。
提案したSTA-GANは、時間枝、空間枝、注意融合の3つの部分から構成される。
論文 参考訳(メタデータ) (2021-07-07T10:00:52Z) - Cross-View Image Synthesis with Deformable Convolution and Attention
Mechanism [29.528402825356398]
本稿では、変形可能な畳み込みとアテンション機構に基づくGAN(Generative Adversarial Networks)を用いて、クロスビュー画像合成の問題を解決することを提案する。
シーンの外観や意味情報を他の視点から理解し、変換することは困難であり、U-netネットワークにおける変形畳み込みを用いて、異なるスケールのオブジェクトの特徴を抽出するネットワークの能力を向上させる。
論文 参考訳(メタデータ) (2020-07-20T03:08:36Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。