論文の概要: CUDA-GR: Controllable Unsupervised Domain Adaptation for Gaze
Redirection
- arxiv url: http://arxiv.org/abs/2106.10852v1
- Date: Mon, 21 Jun 2021 04:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 01:47:16.748382
- Title: CUDA-GR: Controllable Unsupervised Domain Adaptation for Gaze
Redirection
- Title(参考訳): CUDA-GR: Gaze Redirection のための制御不能なドメイン適応
- Authors: Swati Jindal, Xin Eric Wang
- Abstract要約: 視線リダイレクトの目的は、画像中の視線を所望の方向に向けて操作することである。
生成的対向ネットワークの進歩は、フォトリアリスティック画像の生成において優れた結果を示している。
このような微調整の制御を可能にするためには、非常に高価なトレーニングデータに対して、基礎となる真理アノテーションを得る必要がある。
- 参考スコア(独自算出の注目度): 3.0141238193080295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The aim of gaze redirection is to manipulate the gaze in an image to the
desired direction. However, existing methods are inadequate in generating
perceptually reasonable images. Advancement in generative adversarial networks
has shown excellent results in generating photo-realistic images. Though, they
still lack the ability to provide finer control over different image
attributes. To enable such fine-tuned control, one needs to obtain ground truth
annotations for the training data which can be very expensive. In this paper,
we propose an unsupervised domain adaptation framework, called CUDA-GR, that
learns to disentangle gaze representations from the labeled source domain and
transfers them to an unlabeled target domain. Our method enables fine-grained
control over gaze directions while preserving the appearance information of the
person. We show that the generated image-labels pairs in the target domain are
effective in knowledge transfer and can boost the performance of the downstream
tasks. Extensive experiments on the benchmarking datasets show that the
proposed method can outperform state-of-the-art techniques in both quantitative
and qualitative evaluation.
- Abstract(参考訳): 視線方向転換の目的は、画像中の視線を所望の方向に操作することである。
しかし、既存の手法は知覚的に妥当な画像を生成するのに不十分である。
生成的対向ネットワークの進歩は、フォトリアリスティック画像の生成において優れた結果を示している。
しかし、異なる画像属性に対してより細かいコントロールを提供する能力は依然として欠けている。
このような微調整制御を可能にするためには、非常に費用がかかる訓練データに対する根拠真理アノテーションを得る必要がある。
本稿では,ラベル付きソースドメインから視線表現を外し,ラベル付き対象ドメインに転送する,教師なしドメイン適応フレームワークであるcuda-grを提案する。
本手法は,人物の外観情報を保存しながら視線方向のきめ細かい制御を可能にする。
対象領域で生成された画像ラベルペアは,知識伝達に有効であり,下流タスクの性能を向上できることを示す。
ベンチマークデータセットの大規模な実験により,提案手法は定量評価と定性評価の両方において最先端技術より優れていることが示された。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - TraDiffusion: Trajectory-Based Training-Free Image Generation [85.39724878576584]
そこで我々は,TraDiffusion(トラディフュージョン)と呼ばれる,訓練のないトラジェクトリベースの制御可能なT2Iアプローチを提案する。
この手法により、マウスの軌跡を通した画像生成を無駄にガイドすることができる。
論文 参考訳(メタデータ) (2024-08-19T07:01:43Z) - Learning Gaze-aware Compositional GAN [30.714854907472333]
ラベル付きおよびラベルなしデータソースの利点を活用して、注釈付き視線データを作成するための生成フレームワークを提案する。
本稿では,ETH-XGazeデータセットにおける領域内画像拡張と,CelebAMask-HQデータセット領域における領域間画像拡張による視線推定トレーニングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-31T07:07:54Z) - Tell, Don't Show!: Language Guidance Eases Transfer Across Domains in Images and Videos [69.29778009769862]
ラベル付きソースから未ラベルのターゲットデータへの識別的知識の堅牢な転送をドメインギャップでガイドするフレームワークであるLaGTranを紹介する。
意味的にリッチなテキストモダリティがより好ましい転送特性を持つという我々の観察に触発された我々は、ソース学習されたテキスト分類器を用いて、ターゲットテキスト記述の予測を生成するための転送機構を考案した。
言語指導による私たちのアプローチは驚くほど簡単でシンプルですが、GeoNetやDomainNetといった挑戦的なデータセットに対する以前のアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2024-03-08T18:58:46Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - Controllable Continuous Gaze Redirection [47.15883248953411]
制御可能な視線リダイレクトのための新しいフレームワークであるInterpGazeを提案する。
我々のゴールは、ある人物の視線を基準画像に描かれたあらゆる視線方向へとリダイレクトすることである。
提案したInterpGazeは、画像の品質とリダイレクト精度で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-10-09T11:50:06Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。